迫在眉睫的算法鴻溝:駕馭人工智慧的未來

以下關於AI的專欄文章由兩位作者聯合撰稿。施耐德(Scott Snyder)是沃頓高級研究員、賓大工程學院兼職教授、EVERSANA公司的首席數字官,曼恩(Hamilton Mann)是泰雷茲集團( Thales)負責數位化轉型的副總裁。

本文指出,在技術差異和人工智慧偏見的推動下,新興的“演算法鴻溝”(algorithmic divide)需要成為商業和政治領袖考慮的中心議題。

近幾個月來,生成人工智慧(Gen AI)的迅速發展,以OpenAI的軟體ChatGPT為例,將人工智慧(以下簡稱“AI”)推向了全球的聚光燈下。

然而,在對AI提供的新能力的著迷中,由於技術獲取和識字方面的差異,以及根據可用數據訓練出來的AI模型內在固有的認知偏見,出現了一種新的“演算法鴻溝”(algorithmic divide)。將這些挑戰帶到最前沿,將使我們能夠在整個行業、創作者和社會中公開管理這些挑戰。

什麼是演算法鴻溝?

雖然AI在我們生活中的普遍性是顯而易見的,但它的影響在全球範圍內並不一致。除了眾所周知的“數字鴻溝”之外,AI的發展和擴散也產生了“演算法鴻溝”。這種鴻溝將AI蓬勃發展的地區與尚未探索的地區分隔開來。

布魯金斯學會的Mark Muro和Sifan Liu估計,全美有15個城市佔據了美國AI資產和能力的三分之二(僅三藩市和聖何塞就占了約四分之一)。隨著人類與演算法的互動越來越多,我們必然會經歷可能重塑人類思維、社會規範和規則的適應。

儘管大型語言模型等新的AI可能會擾亂白領工作,甚至可能比藍領工作更為嚴重,但來自服務不足社區的專業人士在獲得寬頻和計算技術方面面臨著巨大缺口,而這些基礎對提升技能應對AI時代至關重要。在我們駕馭AI驅動的新一波變革時,演算法鴻溝需要成為商業和政治領導人考慮的中心議題,這樣不會讓這種差距變得更糟。

承認認知偏見

隨著人工智慧成為我們生活中不可或缺的一部分,我們必須審視相關的道德和責任原則。人類在傳遞給機器偏見,因此認識到人類認知中根深蒂固的大量偏見是至關重要的。這些偏見遠遠超出了個人或集體的意識,包括確認偏見、倖存者偏見、可用性偏見等等。

試圖從人類開發的智能系統中消除這些偏見是我們無法實現的目標。正如數據隱私已成為公民的普遍權利一樣,歐盟的《人工智慧法案》和美國的《演算法問責法案》等擬議立法正試圖增加透明度,保護消費者免受人工智慧偏見的影響。

識別增強偏見

消除一種偏見往往會帶來另一種偏見。AI對人類生存的影響成為熱議話題,超過了偏見本身。AI的創造者有責任持續審視這些系統造成的社會變化,並最大限度減少危害,同時優化積極影響。

由於認知偏見可能會產生深刻的負面影響,通過AI放大這些偏見會引發重要問題。當計算能力作為放大因素時,人為增強的認知偏見的潛在負面影響是什麼?

隨著我們越來越依賴機器來決策,AI的代理可能會帶來意想不到的後果,公司是否準備好承擔責任?AI能幫助減少數據集的偏見嗎?我們如何確定哪些偏見是可以容忍的還是危險的?

意識到“改變AI的自我”

AI創造者需要掌握的一個重要概念是,一種AI在社會中的引入不可避免地會產生另一種——一個對應的或另一個自我。隨著AI發展到前所未有的效率,一種互補的AI會出現,以恢復平衡。

這種“雙面人工智慧”(Dual-Sided Artificial Intelligence,DSAI)效應開創了一個機器對機器交互和競爭的時代。對於AI創造者來說,確保人類能動性在這一領域保持核心地位至關重要。

AI的缺陷和品質源於其人類創造者,由於這些系統中固有的而且是看不見的偏見,克服這些缺陷是一個超人的挑戰。OpenAI開發了自己的分類器,允許用戶瞭解書面回應是由人類還是AI生成的,並能夠參考底層數據的來源。

彌合演算法鴻溝的九個指南

隨著AI新浪潮推動我們走向一種新的工作和生活模式,未來既有希望,也有危險。領導者能做些什麼來阻止迫在眉睫的演算法鴻溝?因為如果不加以控制,這種鴻溝將不斷擴大?

將人工智慧準備工作列為公司議程中的關鍵優先事項之一。

1、通過打開AI能力和應用的“黑匣子”,教育高管和員工,在整個公司培養AI認知,減少恐懼因素。

2、通過建立員工創新挑戰,促進整個企業內的AI實驗,建立對人工智慧的信任和透明度;在整條產業鏈,包括客戶、技術供應商和AI初創企業在內建立起一個AI創新生態系統,以幫助上下游共同創建、驗證和發展新的AI解決方案。

3、應用以人為中心的設計思維,識別並試點使用AI專案,以展示短期實用價值,同時尋求更長期、更具變革性的機會,並在整個企業內部、客戶群和更廣泛的社會中獲得認可。

確保AI治理是大規模AI發展的基礎。

1、在企業內建立政策和框架性原則,指導負責任的AI開發和持續改進。例如勞斯萊斯公司內部的Aletheia框架,從社會影響/準確性/信任/治理等32個維度來評估新的AI解決方案,培養負責任的AI開發和使用文化。

2、建立負責任的AI治理原則和專業知識,涉及法律、合規、監管、人力資源、採購和IT等支持職能,通過平衡發展速度和建立門檻來管理AI解決方案中的固有風險,幫助加快採用“負責任”的AI領導。

3、和政府決策者一起參加行業工作組,以確保AI創新和各行業不斷發展的法規之間的平衡,同時隨著勞動力的轉變,提供新的AI技術的普遍使用。

進行技術投資,為可持續的未來服務。

1、通過使用內部AI“沙盒”促進人工智慧演算法的透明度,建立演算法信任,以實現對其環境影響的審計和評估,幫助確定需要改進的領域,並將意外後果降至最低。

2、將數據保護、AI檢測器、源數據識別和可解釋的AI方法作為任何AI應用程式設計的基本品質要求,同時減少不必要的數據存儲和處理。

3、確保您的數據和技術基礎設施為AI做好準備,包括為AI創新而開放和擴展數據/內容資產的能力,維護安全和隱私,同時使用能耗優化的演算法,減少執行AI所需的計算資源。

我們對AI倫理的集體責任:邁向以人為中心的未來

演算法時代已經在世界各地展開,需要思考人類在AI驅動的“機器對機器”互動中的作用。開發負責任的實踐,優先考慮人類,不僅僅是一種競爭優勢或本地化的努力。這不是任何特定公司獨有的競爭優勢。不能也不應該考慮任何其他做法。

就像互聯網等任何其他顛覆性的技術浪潮一樣,如能引導AI朝著以下方向發展將至關重要:即讓想要利用這項強大技術的各個領域的創新者和最終用戶,尤其是當今最難獲得這項技術的人,也都能從中受益。

現在是領導者定義AI基本和普遍原則的時候了,這些原則應能指導企業在未來使用強大的AI技術,確保我們塑造一個符合人類最大利益的AI發展之路。

 

如何引用沃顿知识在线文章

Close


用于个人/用於個人:

请使用以下引文

MLA

"迫在眉睫的算法鴻溝:駕馭人工智慧的未來." China Knowledge@Wharton. The Wharton School, University of Pennsylvania, [08 六月, 2023]. Web. [26 May, 2024] <http://www.knowledgeatwharton.com.cn/zh-hant/article/11182/>

APA

迫在眉睫的算法鴻溝:駕馭人工智慧的未來. China Knowledge@Wharton (2023, 六月 08). Retrieved from http://www.knowledgeatwharton.com.cn/zh-hant/article/11182/

Chicago

"迫在眉睫的算法鴻溝:駕馭人工智慧的未來" China Knowledge@Wharton, [六月 08, 2023].
Accessed [May 26, 2024]. [http://www.knowledgeatwharton.com.cn/zh-hant/article/11182/]


教育/商业用途 教育:

如果您需要重复利用我们的文章、播客或是视频,请填写内容授权申请表.

 

Join The Discussion

No Comments So Far