Methods-贸泽技术与解决方案杂志,及时了解技术创新与工程设计方面的重要资讯。
Issue link: https://trendsintech.mouser.com/i/1540278
重新审视AI的道德困境 作者:Kyle Dent,贸泽电子专稿 我们在2021年推出的一期《Methods》 杂志以人工智能(AI)为主题,探讨 了社会应如何权衡AI的巨大潜力和 危害风险。当时AI还是一项很新的技 术,我们建议从大局出发来考量它的 影响,并且要深刻地认识到新工具的 局限性。此后,基于难以想象的海量 数据集训练的生成式AI横空出世;它 完全主导了AI技术的风口浪尖,驱使 着AI爱好者们一头扎进这个领域,探 索其能够改变世界的应用场景。现 在,大家都在争先恐后地把这项新兴 技术应用到生活的方方面面,这已经 与我们想象中的审慎态度相去甚远。 AI的这些新发展加剧了我们的道德悖 论:如何才能够利用它的巨大潜力造 福人类,同时尽可能降低它带来的危 害?AI的快速发展往往将创新而非深 思熟虑放在首位,这有可能给现实世 界带来不容忽视的问题。因此,采取 审慎且道德的方法就显得尤为重要。 AI部署的道德风险 诸如OpenAI、谷歌和Anthropic等先进 AI公司已经取得了重大成就。大语言模 型(LLM)和其他生成式模型显然已经 超越了典型的语音助手。如果你给它 们一个提示,告诉它们你想要什么,它 们通常都能满足你的要求。你可以提 出问题、生成论文和文章、创作新的艺 术作品,甚至解决复杂的数学和逻辑 问题。尽管生成式AI前景广阔,但它在 现实世界中的仓促上马并非没有问题。 在没有充分监督的情况下使用生 成式AI会引发严重的道德问题。例 如,OpenAI宣称其语音识别转录工具 Whisper具有"接近人类水平的稳健性 和准确性" 1 ,但事实上,虽然Whisper 提供了令人印象深刻的语音转文本功 能,但它也会凭空编造出从未说过的文 本 2 。这种被称为"AI幻觉"的现象可能 出现在与LLM的任何交互中。目前,我 们还不清楚这个问题的严重程度,但 康奈尔大学在2023年进行的一项研究 发现,在使用Whisper API处理13140个 音频样本所得的转录结果中,有1.4% 的内容包含幻觉,其中又有38%提到了 暴力内容、虚构姓名或其他不准确信息, 或者音频样本中并未提及的网站 3 。尽 管存在已知的缺陷,但包括医院和其他 关键任务机构在内的许多组织仍在继 续部署这项技术,却很少考虑其后果。 新闻行业的现状也给我们敲响了警钟。 为了提高工作效率,许多记者和编辑正 在大量采用这项技术。我们并不清楚 这么做究竟能不能节省时间,毕竟可靠 的新闻机构还要额外花时间进行事实 核查。但是,一些不那么可靠的机构已 经完全采用AI来生成报道,并且出现 过报道发出后又撤下的情况,因为其 中包含了捏造的信息 4 。其道德影响显 而易见:如果没有严格的监督,这些工 具可能会削弱公众对重要机构的信任。 与此同时,传统的AI模型仍然被用于 对人类生活有重大影响的决策,包括 工作绩效、招聘、贷款、刑事司法等 等。本特利大学和盖洛普公司2024年 的一项调查发现,56%的受访美国人认 为AI工具本质上是中立的 5 。然而,AI 模型是人类开发的,他们必然要决定 如何训练这些模型。他们选择用于训 练模型的数据,并做出影响结果的权 衡。AI开发中使用的各种标准性能指 标是相互矛盾的,这就导致开发人员 倾向于将道德选择嵌入到技术中,而 不是从道德角度考虑他们的决策。 公共机构尤其需要考虑所采用的技术 带来的影响。如果警察部门决定采用 一套面部识别系统,这套系统声称可 以预测犯罪最有可能发生的地点,那 么在实际部署之前,需要经过哪些流 程?警员在使用这项技术之前,需要 接受哪些培训?我们应该向代表我 们开展工作的组织提出这些问题。 然而,我们对AI的狂热仍在持续。 23 |

