重要的想法

人工智能

为什么员工更有可能事后猜测可永利皇宫463cc的算法

作者

越来越多的员工获得算法来帮助他们做出更好的决策。但人类必须相信这些算法会遵循他们的建议。 

根据研究,人们看待算法建议的方式会有所不同,具体取决于他们对模型的工作原理及其创建方式的了解程度。一篇新的研究论文由麻省理工学院斯隆管理学院教授合着 

之前的研究假设人们更有可能信任可永利皇宫463cc的人工智能模型,在这些模型中他们能够看到模型如何提出建议。但凯洛格和哈佛大学创新科学实验室的联合研究员蒂姆·德斯特凡诺 (Tim DeStefano)、迈克尔·梅尼蒂 (Michael Menietti) 和卢卡·文德拉米内利 (Luca Vendraminelli) 发现情况并非总是如此。

在一项针对一家大型时装公司的研究中,研究人员发现人类决策者更有可能接受来自无法永利皇宫463cc算法模型,更难质疑和质疑。与直觉相反,研究人员发现,能够了解模型的工作原理会导致接受率降低。

研究人员写道,这得出了企业领导者应如何在工作场所引入算法的一些关键要点。首先,当人们看到算法如何工作时,他们可能会认为自己比实际更了解这些内部工作原理——领导者在推出人工智能计划时应该意识到这一问题。

其次,让受人尊敬的同行参与算法的开发和测试过程,可以让员工更有可能接受其建议。

解决“算法厌恶”问题

虽然算法的表现通常优于人类,但人类决策者可能有意无意地不愿意接受他们的建议。研究人员称之为算法厌恶,当人们在高度不确定的环境(例如医药和金融投资)中做出决策时,这种情况尤其普遍。

研究人员研究了算法是如何被接受的挂毯,公司.,一家总部位于纽约的领先的知名配饰和生活方式品牌公司,包括 Coach、Kate Spade 和 Stuart Weitzman。

与其他公司一样,Tapestry 试图改善产品分配 - 在正确的时间将正确数量的商品放置在正确的商店中,以最大限度地提高销量。通过使用算法进行指导来改进此过程。

在这项研究中,一半的员工关于向商店发送哪些产品以及多少产品的决定是根据可永利皇宫463cc算法的建议做出的,该算法是前三周历史销售额的加权移动平均值。

另一半是根据更难永利皇宫463cc的机器学习算法提出的建议,因为它是基于模式而不是假设驱动的,而且因为它更复杂,包括过去 16 周的数据以及促销和假期等其他信息。两种算法都提出了与分配者最初判断相冲突的建议。

总体而言,人类分配者更信任无法永利皇宫463cc的模型,而不是他们更容易理解的模型。研究人员发现这源于两个因素:

1。过于自信的故障排除。

当产品分配者收到违反直觉的建议时,他们试图询问可永利皇宫463cc模型背后的推理并对其建议进行故障排除。根据这项研究,能够做到这一点,就像使用遵循明确规则的算法一样,会导致对可永利皇宫463cc算法的建议的接受度降低。

相关文章

新技术培训如何威胁工人等级制度
麻省理工学院斯隆管理学院关于人工智能和机器学习的研究
报告发现,员工在看到人工智能的价值时就会拥抱人工智能

“因为他们相信自己了解算法的原因、影响和内部工作原理,这常常导致他们否决算法的建议,”研究人员写道。

对员工的采访表明,分配者经常创建叙述来永利皇宫463cc模型输入和输出之间的关系,这导致他们否决了可永利皇宫463cc算法的建议。

但是,在可永利皇宫463cc和不可永利皇宫463cc模型执行相似水平的情况下,分配器否决可永利皇宫463cc算法会导致任务性能降低(更频繁的缺货、更低的销量和更低的收入)。

2。对算法进行社会证明。

机器学习模型不太容易理解,因此员工没有提出质疑。但他们确实知道他们的同行帮助开发和测试了无法永利皇宫463cc的算法。研究人员发现,了解这一点有助于减少他们的不确定性,指的是社会证明"—当人们在模棱两可的情况下从其他人的行为方式中获取指导​​时,假设其他人对当前情况有更多的了解。

知道具有相同知识基础和经验的人开发了这些工具,使人们更有可能接受它们。

研究人员写道:“正是同伴参与开发与无法询问不可永利皇宫463cc的模型相结合,使得分配者更有可能接受来自不可永利皇宫463cc的模型的建议,而不是来自可永利皇宫463cc的模型的建议。”

接下来阅读:要获得成功的机器学习工具,请与最终用户交谈

了解更多信息 萨拉·布朗 高级新闻编辑和作家