迫在眉睫的算法鸿沟:驾驭人工智能的未来

以下关于AI的专栏文章由两位作者联合撰稿。施耐德(Scott Snyder)是沃顿高级研究员、宾大工程学院兼职教授、EVERSANA公司的首席数字官,曼恩(Hamilton Mann)是泰雷兹集团( Thales)负责数字化转型的副总裁。

本文指出,在技术差异和人工智能偏见的推动下,新兴的“算法鸿沟”(algorithmic divide)需要成为商业和政治领袖考虑的中心议题。

近几个月来,生成人工智能(Gen AI)的迅速发展,以OpenAI的软件ChatGPT为例,将人工智能(以下简称“AI”)推向了全球的聚光灯下。

然而,在对AI提供的新能力的着迷中,由于技术获取和识字方面的差异,以及根据可用数据训练出来的AI模型内在固有的认知偏见,出现了一种新的“算法鸿沟”(algorithmic divide)。将这些挑战带到最前沿,将使我们能够在整个行业、创作者和社会中公开管理这些挑战。

什么是算法鸿沟?

虽然AI在我们生活中的普遍性是显而易见的,但它的影响在全球范围内并不一致。除了众所周知的“数字鸿沟”之外,AI的发展和扩散也产生了“算法鸿沟”。这种鸿沟将AI蓬勃发展的地区与尚未探索的地区分隔开来。

布鲁金斯学会的Mark Muro和Sifan Liu估计,全美有15个城市占据了美国AI资产和能力的三分之二(仅旧金山和圣何塞就占了约四分之一)。随着人类与算法的互动越来越多,我们必然会经历可能重塑人类思维、社会规范和规则的适应。

尽管大型语言模型等新的AI可能会扰乱白领工作,甚至可能比蓝领工作更为严重,但来自服务不足社区的专业人士在获得宽带和计算技术方面面临着巨大缺口,而这些基础对提升技能应对AI时代至关重要。在我们驾驭AI驱动的新一波变革时,算法鸿沟需要成为商业和政治领导人考虑的中心议题,这样不会让这种差距变得更糟。

承认认知偏见

随着人工智能成为我们生活中不可或缺的一部分,我们必须审视相关的道德和责任原则。人类在传递给机器偏见,因此认识到人类认知中根深蒂固的大量偏见是至关重要的。这些偏见远远超出了个人或集体的意识,包括确认偏见、幸存者偏见、可用性偏见等等。

试图从人类开发的智能系统中消除这些偏见是我们无法实现的目标。正如数据隐私已成为公民的普遍权利一样,欧盟的《人工智能法案》和美国的《算法问责法案》等拟议立法正试图增加透明度,保护消费者免受人工智能偏见的影响。

识别增强偏见

消除一种偏见往往会带来另一种偏见。AI对人类生存的影响成为热议话题,超过了偏见本身。AI的创造者有责任持续审视这些系统造成的社会变化,并最大限度减少危害,同时优化积极影响。

由于认知偏见可能会产生深刻的负面影响,通过AI放大这些偏见会引发重要问题。当计算能力作为放大因素时,人为增强的认知偏见的潜在负面影响是什么?

随着我们越来越依赖机器来决策,AI的代理可能会带来意想不到的后果,公司是否准备好承担责任?AI能帮助减少数据集的偏见吗?我们如何确定哪些偏见是可以容忍的还是危险的?

意识到“改变AI的自我”

AI创造者需要掌握的一个重要概念是,一种AI在社会中的引入不可避免地会产生另一种——一个对应的或另一个自我。随着AI发展到前所未有的效率,一种互补的AI会出现,以恢复平衡。

这种“双面人工智能”(Dual-Sided Artificial Intelligence,DSAI)效应开创了一个机器对机器交互和竞争的时代。对于AI创造者来说,确保人类能动性在这一领域保持核心地位至关重要。

AI的缺陷和品质源于其人类创造者,由于这些系统中固有的而且是看不见的偏见,克服这些缺陷是一个超人的挑战。OpenAI开发了自己的分类器,允许用户了解书面响应是由人类还是AI生成的,并能够参考底层数据的来源。

弥合算法鸿沟的九个指南

随着AI新浪潮推动我们走向一种新的工作和生活模式,未来既有希望,也有危险。领导者能做些什么来阻止迫在眉睫的算法鸿沟?因为如果不加以控制,这种鸿沟将不断扩大?

将人工智能准备工作列为公司议程中的关键优先事项之一。

1、通过打开AI能力和应用的“黑匣子”,教育高管和员工,在整个公司培养AI认知,减少恐惧因素。

2、通过建立员工创新挑战,促进整个企业内的AI实验,建立对人工智能的信任和透明度;在整条产业链,包括客户、技术供应商和AI初创企业在内建立起一个AI创新生态系统,以帮助上下游共同创建、验证和发展新的AI解决方案。

3、应用以人为中心的设计思维,识别并试点使用AI项目,以展示短期实用价值,同时寻求更长期、更具变革性的机会,并在整个企业内部、客户群和更广泛的社会中获得认可。

确保AI治理是大规模AI发展的基础。

1、在企业内建立政策和框架性原则,指导负责任的AI开发和持续改进。例如劳斯莱斯公司内部的Aletheia框架,从社会影响/准确性/信任/治理等32个维度来评估新的AI解决方案,培养负责任的AI开发和使用文化。

2、建立负责任的AI治理原则和专业知识,涉及法律、合规、监管、人力资源、采购和IT等支持职能,通过平衡发展速度和建立门槛来管理AI解决方案中的固有风险,帮助加快采用“负责任”的AI领导。

3、和政府决策者一起参加行业工作组,以确保AI创新和各行业不断发展的法规之间的平衡,同时随着劳动力的转变,提供新的AI技术的普遍使用。

进行技术投资,为可持续的未来服务。

1、通过使用内部AI“沙盒”促进人工智能算法的透明度,建立算法信任,以实现对其环境影响的审计和评估,帮助确定需要改进的领域,并将意外后果降至最低。

2、将数据保护、AI检测器、源数据识别和可解释的AI方法作为任何AI应用程序设计的基本质量要求,同时减少不必要的数据存储和处理。

3、确保您的数据和技术基础设施为AI做好准备,包括为AI创新而开放和扩展数据/内容资产的能力,维护安全和隐私,同时使用能耗优化的算法,减少执行AI所需的计算资源。

我们对AI伦理的集体责任:迈向以人为中心的未来

算法时代已经在世界各地展开,需要思考人类在AI驱动的“机器对机器”互动中的作用。开发负责任的实践,优先考虑人类,不仅仅是一种竞争优势或本地化的努力。这不是任何特定公司独有的竞争优势。不能也不应该考虑任何其他做法。

就像互联网等任何其他颠覆性的技术浪潮一样,如能引导AI朝着以下方向发展将至关重要:即让想要利用这项强大技术的各个领域的创新者和最终用户,尤其是当今最难获得这项技术的人,也都能从中受益。

现在是领导者定义AI基本和普遍原则的时候了,这些原则应能指导企业在未来使用强大的AI技术,确保我们塑造一个符合人类最大利益的AI发展之路。

如何引用沃顿知识在线文章

Close


用于个人/用於個人:

请使用以下引文

MLA

"迫在眉睫的算法鸿沟:驾驭人工智能的未来." China Knowledge@Wharton. The Wharton School, University of Pennsylvania, [08 六月, 2023]. Web. [26 May, 2024] <http://www.knowledgeatwharton.com.cn/article/11178/>

APA

迫在眉睫的算法鸿沟:驾驭人工智能的未来. China Knowledge@Wharton (2023, 六月 08). Retrieved from http://www.knowledgeatwharton.com.cn/article/11178/

Chicago

"迫在眉睫的算法鸿沟:驾驭人工智能的未来" China Knowledge@Wharton, [六月 08, 2023].
Accessed [May 26, 2024]. [http://www.knowledgeatwharton.com.cn/article/11178/]


教育/商业用途 教育:

如果您需要重复利用我们的文章、播客或是视频,请填写内容授权申请表.

 

Join The Discussion

No Comments So Far