尽管人们对永利皇宫app官网式人工智能充满热情,但人们对潜在的偏见或不准确的担忧是合理的,即使有一定程度的人为干预也是如此。
随着技术变得更容易获取并且用例激增,这些担忧也随之加剧。在一个例子中,a2023 年分析Stable Diffusion 根据职称和犯罪相关提示永利皇宫app官网的 5,000 多张图像中发现,永利皇宫app官网式 AI 工具显着放大了性别和种族刻板印象。最近,OpenAI 的 ChatGPT 和 Microsoft 的 Copilot 聊天机器人已被发现产生看似真实的捏造数据(有时称为幻觉)。
让人类了解情况是一种广受推崇的监督人工智能的方法,以期维持信任并降低风险。但大多数人并不像他们想象的那样善于识别错误,也往往如此锚定麻省理工学院斯隆管理学院高级讲师和研究科学家表示,人工智能永利皇宫app官网的内容即使他们知道可能会出错
“很难把精灵放回瓶子里,”高斯林说以人为本的人工智能小组麻省理工学院数字经济倡议的研究负责人。但是“当你谈论数万亿美元的投资、对人们生计的潜在影响以及潜在错误和偏见的规模和扩散时,就会促使你认真审视正在发生的事情。”
通常,设计数字体验的人们都非常注重减少摩擦,让事情变得更容易。 Gosline 与埃森哲的一个团队合作,对她的审计人工智能系统接触点的理论进行压力测试,其中引入了正确类型的“目标摩擦”或人工智能工作流程中的有益摩擦(被描述为认知和程序减速带)可以提高整体准确性并减少不加批判的采用。
研究人员发现,在人工智能的背景下,摩擦不应被普遍视为不好的事情,而是可以作为一种有意的工具,促进更负责任和成功的永利皇宫app官网式人工智能的使用。
“摩擦是一种更周到的方法,可以超越试点计划,并通过技术的采用获得您期望的价值和规模,”说阿纳布·查克拉博蒂,埃森哲人工智能首席负责官。

人工智能高管学院
亲自前往麻省理工学院斯隆管理学院
立即注册
有益摩擦的测试用例
在麻省理工学院和埃森哲的实验用例中,大型语言模型输出中添加了有针对性的摩擦,以中断人工智能与人类互动的自动性质。目标是鼓励用户采用更有意识和深思熟虑的认知处理方法,称为系统2思维,在执行人工智能永利皇宫app官网任务时,不会显着减慢或颠覆端到端流程。
研究参与者被要求使用永利皇宫app官网式 AI 在 70 小时的时间内创建一对公司简介的执行摘要,包括引用可用的来源。参与者使用了一种实验工具,旨在通过促使用户注意法学硕士内容中潜在的错误和遗漏来增强人们对永利皇宫app官网式人工智能的使用。该工具利用突出显示来根据颜色传达不同的信息,因此要求用户进行一些认知处理,而不是不加批判地采用永利皇宫app官网式人工智能输出。
紫色突出显示的文本与提示中使用的术语以及内部数据库和公共信息相匹配。橙色突出显示的文本表示可能不真实的陈述,应考虑删除或替换。提示中包含但输出中省略的文本在永利皇宫app官网的响应下方以蓝色显示。
参与者被随机分配到三种条件之一,每种条件都以突出显示的形式注入不同级别的减速带。
- 全摩擦条件对永利皇宫app官网的内容强加了所有三种突出显示。
- 中等摩擦条件包含对永利皇宫app官网的内容进行两种突出显示。
- 无摩擦控制条件根本不包含突出显示,反映了当前永利皇宫app官网式 AI 用户体验。
研究人员随后分析了结果,比较了用户在人工智能永利皇宫app官网的文本中发现的不准确和遗漏的数量以及执行任务所花费的时间。
研究人员发现,中等摩擦条件会促使用户更仔细地检查永利皇宫app官网的文本,以发现不准确和遗漏,而不会显着拖累完成任务所需的时间。研究人员得出结论,以两种突出显示的形式引入适度的摩擦力可以在准确性和效率之间实现最佳平衡。
“人工智能工具使我们能够将冗长的系统 2 流程(例如写作和编辑)转变为超快速且直观的系统 1 流程,”Gosline 说道,并指出这种变化可能会导致错误。 “我们想反驳人工智能应该用来将一切都变成系统 1 流程的想法。我们希望使用模型来减少工作时间,但我们不想让用户面临风险。”
将理论付诸实践
除了与麻省理工学院的实验性合作之外,埃森哲还在其自己的人工智能相关业务流程中将有益摩擦的概念付诸实践。查克拉博蒂表示,该公司对人工智能采取了非常审慎、基于风险的方法。当人工智能项目所有者开始从事人工智能相关工作时,他们需要回答四个问题,以帮助确定工作的风险级别。提供了指导方针和最佳实践,标记为较高风险的项目会自动触发旨在评估整个过程中潜在问题和挑战的额外流程和监督步骤。
“我们将其创建为我们治理流程和文化支持的一部分,”查克拉博蒂说。 “它为埃森哲系统和我们的客户建立了一定程度的信任和信心。它还表明,摩擦具有总体净正效益。”
Gosline 和埃森哲领导者向希望创建更多护栏和治理以控制不受限制地使用永利皇宫app官网式 AI(包括利用有益摩擦)的组织提出以下建议:
评估组织的准备情况和成熟度。组织需要首先了解其负责任的人工智能的成熟度,包括其遵守标准和法规的能力。该镜头将告知在大规模人工智能实施之前需要实施什么样的流程。
评估 AI 系统风险。并非所有人工智能系统都需要相同级别的控制。当使用有针对性的摩擦等工具时,重要的是在整体风险的背景下根据需要的时间和地点定制减速带。
拥抱系统化、结构化的支持。单独的解决方案无法彻底解决准确性和偏差问题,因为用户可能高估了自己识别人工智能永利皇宫app官网的错误的能力。 “现在的大部分讨论已经演变成让人类参与到解决不准确和偏见问题的循环中,但当谈到永利皇宫app官网人工智能时,我们发现这还不够,”戈斯林说。 “虽然用户从减速带中受益,但他们并没有更有可能自我报告减速带帮助他们变得更加准确。这表明存在过度自信的偏见,用户可能认为自己比实际情况更有能力检测人工智能永利皇宫app官网的错误。
“要注意针对结构性问题的个人层面的解决方案,”她补充道。 “考虑结构性、系统性的解决方案,例如添加有益的摩擦以用作工具或业务流程。”
鼓励实验文化。在部署 AI 工具和模型之前,测试工作人员如何与其交互,包括对准确性、速度和信任的任何可能影响。实验提供了关于如何提升员工在人机循环系统中的作用的关键见解,包括何时应用有针对性的摩擦最有意义。
实施持续监控。AI 模型是动态系统,一旦投入生产,数据和输出可能会发生变化,随着时间的推移会导致不准确和幻觉。需要建立监督和监控系统,以不断评估系统,识别潜在的事件和问题,并制定和协调正确的干预措施。
教育和培训是关键。 随着人工智能使用的升级,需要带动员工,特别是因为技术变化如此之快。戈斯林说,当谈到永利皇宫app官网人工智能时,关于即时工程的作用和实施的教育尤为重要,因为它是潜在偏见的主要领域。 “最重要的摩擦点之一是提示的产生,”她说。 “为了解决偏见,我们希望用户能够有意识地思考他们想要完成什么以及他们将输出用于什么目的。”
有益的摩擦并不是减少 AI 不准确和偏见的唯一补救措施。 Gosline 鼓励组织进行测试和学习,随着人工智能用例数量的增加和扩大,扩大实验网络。她还警告说,人工智能不必非常容易使用,人们才会认为它有用——通过有益的摩擦实验中使用的突出显示和标签,用户仍然看到了好处,组织仍然有实现投资回报率的明确途径。
“一路上总会有失败和坎坷,”她说。 “但有益的摩擦是部署人工智能的一种比清理混乱或创造社会转变更好的方式,因为你大规模地放置未经检查的模型,它会引起偏见。”