人类为何不相信算法?以及如何改变这一现状

计算机发明后,在机器不会犯错误的理念下,数学模型已被用于辅助或替代人类决策。然而,许多人不愿意使用算法,而是倾向于依靠直觉来进行各种决策。沃顿商学院运营、信息和决策专业教授凯德·梅西(Cade Massey)、约瑟夫·西蒙斯(Cade Massey)以及芝加哥大学教授伯克利·J·狄伏斯特(Berkeley J. Dietvorst )的新研究(New research)发现,控制是这一问题的关键。如果给决策者一个控制模型的措施,他们会更倾向于使用算法。梅西和西蒙斯在接受沃顿知识在线的采访中谈到这项研究的意义。

访谈文字内容整理如下。 

沃顿知识在线:两位能不能向我们简要介绍下这项研究?这篇论文是你们近期研究的最新报告。 

约瑟夫·西蒙斯:我们正在研究一个称为“算法厌恶”(algorithm aversion)的现象,这一现象是指尽管有很多研究都指出做出判断和预测所应依照的根据,但人们做决定时不愿意遵循以证据为基础的特定规则。很多人只是依靠他们的直觉或者权力。他们不想依赖基于证据的一致规则,而其实他们应该这么做。

我们已经研究了一两年,探索人们不想依靠这些算法的原因或具体情况。我们的第二篇论文探讨如何让人们更可能依赖算法。总的来说我们发现,如果告诉人们,“你可以遵循一个会给你一些建议的算法,也可以按自己的意见来,”然后问他们,“你打算怎么做?”他们其实愿意说,“我会用这个算法。

但是,一旦你给他们一些练习,让他们看算法如何执行,他们便立即不想再用算法了。这是因为他们看到算法犯错误。即使算法或计算机犯的错误比人犯的错误更小或更少见,人们一旦看到算法或计算机犯了错误,还是就不想再使用算法。 

沃顿知识在线:算法应该是完美的。 

西蒙斯:对。人们想让算法完美,并期待它们是完美的,即使我们真正想要的只是算法比人好一点点。我们的第一篇论文略为悲观,指出一旦人们看到算法像人一样犯错,人们就不想使用。我们的第二篇论文表明,只要你让人对算法有一些控制,就能让他们使用算法。你说,“这个算法告诉你这个人的GPA会是3.2。你认为他们的GPA会是多少?”人们不想只采用算法预测的3.2。但如果你说,“你可以在此基础上调整0.1”,那么人们的反应是:“好吧,我可以使用算法。”我们发现只要你让人对事情有一点点控制,他们就更有可能使用。这是非常好的消息。 

凯德·梅西:我们在实验环境下运行这一方法,但我们的动力是真实世界的结果。这项研究的一些早期想法来自与公司的合作,我们带着用于招聘和雇用新员工的决策模型进到这些公司。基于多年的数据和一些很好的分析,我们确信我们有最好的建议。然而,那些组织不愿使用这些模型,因为他们只想依靠直觉。

这在招聘和绩效评估中很常见,甚至在一些已经有自动化决策的领域也常见,例如如何管理对冲基金或应该如何对某些产品进行销售预测。这些地方都有不断发展的自动生成的预测或建议。我们称之为算法。最终决策者可以决定是否采纳这些建议,听从自己的直觉,还是两者兼用。 

沃顿知识在线:你们的主要收获是,如果人们有一定的控制,则对使用算法的厌恶会较少。但得出的一个结论让你们感到惊讶,必须给人们多少控制才能让他们感觉好。谈谈这个结论吧。

梅西:我们不知道必须让他们有多少控制,才能使他们接受算法。让人们有控制的缺点是他们开始降低算法的作用。在大多数领域中,人不如模型好。他们的意见越多越糟糕。在某种意义上,你希望他们的控制尽可能少,并仍然让他们使用算法。我们不知道答案会是什么。我们早期得到的证据是控制不应该很多; 然后我们开始测试控制的极限,发现我们可以让人们有一点点控制。大约5%的调整范围会让他们更有兴趣使用算法。如果给人们更多控制不会增强使用意愿。让他们有一点点控制,相当于给他们适度的影响。 

西蒙斯:有趣的是当人们调整算法时,会使算法变得更差。但如果他们只能调整一点点,就只能使算法变差那么一点点。因为人们更可能在这种情况下使用算法,他们的最终判断将与接近完美的算法结果相关。我们不能让人们完全使用算法,但我们可以让他们使用算法到99%的程度,这就大幅提高他们的判断。

沃顿知识在线:如果我是一个付费使用这些算法的企业老板或个人,我将怎么在现实生活中运用这项研究? 

梅西:我们学到最关键的一点是,不要简单地强加一个超大模型或黑盒子模型,然后说,“这是你使用判断的方法。你应该按这个调整决策。”人们会反抗。你要让他们有自主决定权。这在不同的地方表现方式不同。比如一所研究生院招生,他们对申请人进行排名,然后到某一点划一条录取线和定出例外情况。在这过程中他们来回移动申请人的资料。你可以使这一流程自动化。即使你把他们的一些判断输入模型,还是可以使用自动化模型来最终得出结论说,“这些是你们应该录取的人。”

一方面,你可以说,“模型在这。这是它的结论,你接受也好,不接受也好。我们要对这个过程自动化。”你一般会遇到反抗。但是,如果你说,“这是提供参考意见的模型。我们建议您考虑。如果你想进行调整就进行调整。”我们已经与一些学校这样合作,并发现早期他们有点怀疑。他们在一定程度上依赖模型,随着时间的推移,他们实际上完全使用了模型,尽管他们有自主决定权自由调整。 

沃顿知识在线:确保人们知道他们有控制,我也认为这个展示很重要。 

西蒙斯:我认为重要的是避免完全采纳或完全不采纳的理念,比如坚持100%按照算法。如果人们按你描述的那样想,他们会反弹。但是如果你可以把说法变成“即使99%的情况下我们将使用算法,但你可以选择更改算法或在某些时候不按照算法,”这将使人们更容易使用算法。

关于这一点另一个很重要的情景是自驾车。你可以想象,如果人们对自驾车完全没有控制权,他们会觉得不自在。但如果你说,“其实,有一件事你可以做。这有点困难和不同寻常,但在有需要的情况下,你可以这样做来控制汽车。我们发现人们从来不需要使用这个功能,但这个功能确实存在。”我们预测在这种情况下,人们将更愿意乘坐自动驾驶的汽车,因为自己有一些控制。自动驾驶仪通常比飞行员更安全,但人们想要一个飞行员在那里,即使很多飞机失事是飞行员的失误。这样人们感觉更好。我认为我们的研究探讨了这一点。

沃顿知识在线:新闻故事里可以运用这项研究的还有哪些? 

梅西:谈谈选举预测怎么样? 

西蒙斯:好的。去年11月我们的总统选举震惊世界。有一大群人在根据过去的投票信息预测选举结果。最有名的案例可能是为FiveThirtyEight.com撰稿的纳特·西尔弗(Nate Silver)。他说,希拉里赢的概率是70%,特朗普当选的概率则是30%。但是特朗普赢了。最后有很多人攻击纳特。我们认为他错了,一部分是因为模型错了。事实上这不是完全错误,因为概率为30%的事件有30%可能会发生。当专家出来说一件事情会发生时,他们得到的批评不会比那种使用统计数据和算法(人们期望100%正确)的人多。我认为我们在纳特事件看到的攻击与我们之前发现的一致。 

梅西:这又回到我们的第一篇论文,人们对模型和算法犯错的容忍度远远低于对人犯错的容忍度。他们对人更宽容。我们已经探讨了一点,现实对模型和算法的标准和要求更高。 

沃顿知识在线:这有意义吗?人或物没有一样是完美的。 

梅西:我们认为人们这样做的原因有很多。一个是他们认为人们可以随着时间的推移而改进,而模型则相对固定。这两点都不一定对。模型可以随着时间的推移改善,而人不一定会逐渐改进。这种心理其实似是而非。当然会有一些情境,人们比模型改善得多,但我们认为人们这方面的直觉太过了。 

沃顿知识在线:这项研究与同领域其他研究的不同之处在哪 

梅西:我们不是第一个讨论模型判断与人判断之间的区别。这已经存在了几十年,模型也已经相当成熟。我们在探索现象背后的原因以及如何解决认知偏差这方面相对较早。

西蒙斯:没有多少人以前记录人们不愿意使用算法的原因。有一些零星的非专业研究,有一些关于人们不喜欢这些东西的著作,但没有人真正系统地看待这个问题。 

梅西:再说回动力。我们的动力在于我们与组织合作,希望他们使用更多的模型,我们需要知道如何打破这种偏见。只有深入理解偏见为什么存在,才能对症下药。 

沃顿知识在线:下一步研究是什么 

梅西:我们会继续探索一些可能导致人们不愿使用算法的因素,但我们也希望进行更多真实世界的测试。如果我们与涉及自身经济利益的专业人士合作,他们是否也有同样的偏见?我们有帮助他们的办法吗?我们与一些组织已经谈过多次,他们有兴趣对员工或客户进行实验,看看我们在实验室得出的结果是否在真实世界发生。

如何引用沃顿知识在线文章

Close


用于个人/用於個人:

请使用以下引文

MLA

"人类为何不相信算法?以及如何改变这一现状." China Knowledge@Wharton. The Wharton School, University of Pennsylvania, [16 March, 2017]. Web. [25 September, 2017] <http://www.knowledgeatwharton.com.cn/article/9095/>

APA

人类为何不相信算法?以及如何改变这一现状. China Knowledge@Wharton (2017, March 16). Retrieved from http://www.knowledgeatwharton.com.cn/article/9095/

Chicago

"人类为何不相信算法?以及如何改变这一现状" China Knowledge@Wharton, [March 16, 2017].
Accessed [September 25, 2017]. [http://www.knowledgeatwharton.com.cn/article/9095/]


教育/商业用途 教育:

如果您需要重复利用我们的文章、播客或是视频,请填写内容授权申请表.

 

参与讨论

目前尚无评论