社交媒體公司如何保護使用者個人資料隱私?這些資料的分析如何影響選民偏好和投票率?三月中旬開始,公眾對這些問題的擔憂嚴重加深。擔憂的起因是英國《觀察家》報暴露了在倫敦和紐約設有辦事處的資料分析公司——劍橋分析的行徑。該公司能夠未經授權訪問5000萬份Facebook個人資料,通過有針對性地影響選民協助了唐納德·特朗普贏得2016年美國總統大選。
因此,Facebook面臨最嚴峻的隱私保護考驗,創始人兼首席執行官馬克·紮克伯格(Mark Zuckerberg)被英國議員傳喚(summoned by MPs in the U.K.),也面臨美國國會和來自印度(India)的類似傳喚,因為有消息顯示劍橋分析公司曾試圖影響2016年英國脫歐公投和印度、奈及利亞以及其他國家的選舉。
美國特別顧問羅伯特·穆勒(Robert Mueller)已經在調查俄羅斯是否涉嫌干預2016年美國總統大選,以及關注劍橋分析公司與特朗普競選團隊的關係。值得注意的是,美國億萬富翁和保守黨籌款人羅伯特·默瑟(Robert Mercer)以1500萬美元的投資協助創建了劍橋 分析公司,並聘請了前特朗普顧問史蒂夫·班農(Steve Bannon),班農後來從該公司離職。該公司最初試圖將選民引向總統候選人特德·克魯茲(Ted Cruz),在他退出競選後重新將重點轉向幫助特朗普競選。
為深入瞭解劍橋分析醜聞導致的後果,沃頓知識線上採訪了沃頓行銷學教授羅恩·伯曼(Ron Berman)和基甸·內弗(Gideon Nave)、馬里蘭大學社交智慧實驗室主任和資訊研究教授詹妮弗·戈爾貝克(Jennifer Golbeck)以及麻省理工學院斯隆商學院管理學教授司南·艾瑞爾(Sinan Aral)。戈爾貝克和艾瑞爾做客天狼星廣播公司111頻道沃頓知識線上節目,分享了他們對這個問題的看法。
艾瑞爾說,“我們正在經歷社交媒體發展的分水嶺,人們現在開始意識到社交媒體不僅僅是一個有趣的玩物或是討厭的東西。它可能會對社會產生實際影響。”
伯曼認為,劍橋分析醜聞顯示了消費者對自身資料可能被利用的用途知之甚少。他回憶了電影《少數派報告》的一個鏡頭,湯姆·克魯斯進入商場並看到針對個人廣告的全息圖。他說:“如今線上廣告的複雜程度在對準目標和預測方面已經達到了相同水準。廣告商不僅可以判斷你過去買了什麼,而且可以推測你可能想買什麼。”
消費者對此略有意識,因為他們經常看到向自己展示流覽過的產品的廣告,或訪問過的網站的廣告,而且這些廣告“追著他們來”,伯曼說,“消費者可能不知道的是廣告商是如何確定他們想要購買的商品的,劍橋分析公司展示了這個世界的微小部分。”
內弗最近與人合作撰寫的一份研究論文(research paper)探討了劍橋分析為特朗普競選所做的工作的潛在影響。 “一方面,這種形式的大眾心理說服可以用來幫助人們做出更好的決定,過上更健康幸福的生活。另一方面,它可能被用來暗中利用大眾性格中的弱點,說服他們背離自己的最大利益採取行動,這顯示了可能需要政策干預。”
內弗說劍橋分析醜聞揭露了這些類型的風險,即使它們在互聯網時代之前就已存在。“宣傳不是一項新發明,行銷中的針對性資訊傳播也不是新事物。然而,這一醜聞表明我們的線上行為暴露了很多有關我們個性、恐懼和弱點的資訊,這些資訊可以用來影響我們的行為。”
戈爾貝克在涉及演算法使用的研究專案中,發現人們“真的很震驚,我們能夠獲得這些對你的洞察,比如你的性格、政治偏好,容易受影響程度,以及這方面的資料我們能獲得多少。”
更令人震驚的也許是查找資料多麼容易。戈爾貝克說,“任何Facebook上的應用程式都可以提取劍橋分析公司提取的那類資料,他們可以提取你的所有資料以及你所有朋友的資料。即使你不安裝任何應用程式,如果你的朋友使用應用程式,這些應用程式可以提取你的資料,一旦他們有了這些資訊,他們就可以使用人工智慧獲得這些非常深入透徹的洞察,瞭解如何影響你,如何改變你的行為。”但她在這裡做了一個劃分,“如果是為了讓你買一雙鞋,是一回事,如果要改變選舉結果則是另一回事。”
一個擴大事態的醜聞
儘管劍橋分析利用資料影響選舉的做法在過去三年中引發爭議,但其影響的嚴重性到3月中旬才暴露。舉報人克里斯多夫·魏利(Christopher Wylie)曾與劍橋分析合作,他向《觀察家》報透露該公司如何獲得約五千萬份Facebook用戶的個人資料。同一天,《紐約時報》詳細報導了劍橋分析在特朗普競選中的作用。
Facebook曾允許劍橋大學研究人員亞歷山大·科根(Aleksandr Kogan)獲得資料進行無害的個性測驗,但科根未經授權將存取權限給了劍橋分析。魏利告訴《觀察家》:“我們利用Facebook收集了數百萬人的個人資料,並建立模型來利用我們對他們的瞭解,並對準他們心中的惡魔。 這是整個公司的運營基礎。”
與此同時,英國的第4頻道的新聞欄目在一個視頻中指出劍橋分析在其工作中使用“改變觀眾行為”的策略,其中包括“情色陷阱”和雇傭妓女。劍橋分析否認了第4頻道的報導,聲明說:“該報告經過改編和撰寫,嚴重歪曲了這些對話以及公司開展業務的性質。”去年3月,劍橋分析公司現被停職的首席執行官亞歷山大·尼克斯(Alexander Nix)在德國漢堡舉行的線上行銷搖滾明星大會上發表的主題演講中,談到他的公司為泰德·克魯茲以及後來的唐納德·特朗普競選總統所作的工作。
Facebook的透明度悖論
艾瑞爾認為,劍橋分析醜聞可能“對瞭解社交媒體對民主、經濟甚至公共健康產生影響的本質所需的資源”帶來潛在的令人心驚的影響。”Facebook正面臨“透明度悖論”(transparency paradox),他說,“一方面,面臨強大壓力迫使其廣告定位演算法、新聞消息演算法以及趨勢演算法更加公開和透明。另一方面,也面臨著巨大壓力必須保證用於研究所用資料的安全。Facebook必須找到一種更加開放、透明和安全的方法。”
戈爾貝克說,“Facebook試圖在問題的兩面來回打轉。”她回顧了來自Facebook和加利福尼亞大學聖地牙哥分校的科學家的一項研究,該研究稱社交媒體網路“對投票人數的影響是有限的可衡量的”,對此《紐約時報》有報導。“一方面,他們聲稱他們可以有很大的影響力,另一方面,他們想說“不,不,我們沒有任何影響。”所以他們要真正證明在兩邊聲稱的觀點會非常困難。”
Facebook似乎決定直面問題。週三,紮克伯格發佈坦誠聲明:“我們有責任保護您的資料,如果我們不能,那我們不值得為您服務。”3月21日,他在CNNMoney的採訪中稱會確保開發者沒有像科根那樣擁有對Facebook資料的存取權限。“我們還需要確保沒有任何其他劍橋分析這樣的公司或者不恰當訪問資料的人。我們要調查每個可以訪問大量資訊的應用程式……如果我們檢測到任何可疑活動,我們將進行完整的法務審計。”他表示,Facebook還將構建一個工具,讓用戶知道劍橋分析是否訪問了他們的資料。
事件始末
紮克伯格在自己的Facebook發文中列出了從他角度看到的事件的發生順序。2013年,科根為自己正在開發的人格測驗應用程式獲得了訪問大約30萬Facebook使用者資料的許可權。由於這些使用者也分享了朋友的資料,因此科根最終訪問了數千萬使用者的資料。一年後,為了 防止濫用,Facebook改變了平臺,“極大地限制了應用程式可以訪問的資料。”2015年,Facebook從《衛報》記者瞭解到,科根與劍橋分析公司分享了使用者資料。Facebook禁止科根進入平臺,並要求他和劍橋分析證明他們已經刪除了不正當獲得的資料,兩者照做了。事情的轉捩點出現在3月上旬,當英國第四頻道、《紐約時報》和《衛報》報導同時指出劍橋分析可能沒有刪除證明已經刪除的資料。
科根告訴BBC記者,他被當作替罪羊,而且他認為他“非常妥當地”處理了Facebook的使用者資料。《衛報》報導稱,“科根表示,劍橋分析所作的專案,即使用人們的Facebook資料進行微觀目標瞄準,是這些平臺上大多數資料的主要用途。Facebook和Twitter以及其他平臺通過廣告賺錢,所以與使用者之間有一個協議,“嘿,你可以在這個運營成本高達數十億美元的平臺上玩,作為回報,我們可以將你賣給廣告商,用於微觀目標行銷。”
劍橋分析的影響範圍
內弗認為,不可能確切知道劍橋分析公司在操縱選民偏向特朗普方面的影響力大小。他說,“劍橋分析和媒體都有強烈的利益驅動來言過其辭,”對競爭對手所用策略的資訊也無法獲得。“雖然如此,候選人在關鍵搖擺州的差異很小。即便競選活動的影響力非常小,由於選舉人團制度,它可能會在總體水準上產生有意義的影響。”
伯曼說劍橋分析公司會“誇大其絕對效應,誇張陳詞有多少人因為他們改變了投票結果,但其影響的確存在”。研究表明,“通過轉變觀點來改變投票選擇是非常困難的,劍橋分析的行為有可能讓更多選民選擇他們瞄準的候選人,也可能會影響處在邊緣的,尚未決定的選民。”他指出,因為美國的選舉通常是由“人數非常小的大多數決定,任何1%的變動,儘管其絕對效果微不足道,都會產生相對大的影響。”
艾瑞爾建議謹慎闡釋劍橋分析公司可能對特朗普當選的影響程度。“如果我們真的要理解這個問題,我們需要更多的大量研究。”他進行的衡量社交媒體影響力和易感性的隨機實驗強調了這種不確定性。“我們沒有明確的證據,可以證實或否定或量化這些類型的方法對說服以及改變投票行為的影響,那種足以改變選舉結果的影響。”
尋找解決方案
戈爾貝克呼籲制定決定研究人員有道德地使用社交媒體資料從事工作的規則,“並在更廣闊的範圍給人們一些現在沒有的權利。”艾瑞爾希望解決方案能夠以“一個中間立場的方式出現,讓我們學會有道德地利用這些技術,促進社會發展、獲取資訊、彼此合作和協調的能力,以及促進我們在世界範圍內傳播積極社會變革的能力。”同時,他主張收緊資料的使用要求,並以“有意義的方式收回知情同意的概念,以便我們能夠實現社交媒體的承諾,同時避免危險。”
限制可以存儲的有關人的資料等監管可能有助於防止“大規模說服”,從而讓人們採取背離自己最大利益的行動。內弗說,“很多時候,很難界定什麼是‘最大利益’,有時候,個人和社會的利益之間存在緊張關係。晚餐吃西蘭花會比吃比薩更好嗎?在大選日與你的家人野餐是否比投票更或多或少服務於你的最大利益?在很多情況下,答案並不簡單。”
用戶能如何保護自己
伯曼說,傳統上行銷人員可以收集個人資料,但通過社交平臺,他們現在也可以收集有關使用者社會連絡人的資料。“這些連絡人從未明確允許收集這些資訊。消費者需要認識到,通過關注某人或在社交媒體上與某人聯繫,他們也會將自己展示給瞄準自己“朋友”的行銷人員。”
就保障措施而言,伯曼表示很難預先知道公司將如何處理收集的資料。“如果他們用它來進行正常的廣告,比如說牙膏,這可能是合法的,如果他們把它用於像選舉中的政治廣告,這可能是非法的。但資料本身是相同的。”
伯曼認為,例如,大多數消費者不知道會員卡被用於追蹤他們的行為,而且資料被出售給行銷人員。但是,如果他們知道,他們會停止使用這些卡嗎?伯曼表示,“我不確定。調查顯示,人們希望維護自己的隱私權,但當被問及有多願意為保護隱私放棄客戶體驗或為此付費時,給出肯定答覆的人不太多。換句話說,我們把隱私作為一個理念關心,和我們願意為維護隱私放棄多少利益,這是有差別的。”
戈爾貝克表示,用戶能使用一些工具來限制他們在社交媒體平臺上的資料量,例如一個名為Facebook 時間軸清除器的平臺,以及Twitter上的“推文刪除”功能。她說:“你可以讓自己更不容易受到這種類型的瞄準,其中一種方式是保持較少的資料,儘量定期刪除內容,並將其視為一個暫時的平臺。”
她還提出了從小學開始教孩子們的計畫,讓孩子瞭解有關自己的資料意味著什麼,以及其他人如何運用這些資料,還有“提高人們對演算法和影響力的認識”。
伯曼說,只要社交媒體上允許廣告,就會存在一定程度的隱私暴露,因為它為免費服務提供資金。“一個保障措施是資料收集者在收集資料時非常嚴格地披露,打算如何使用這些資料,這當然會產生執法問題,但可能有助於讓行銷人員開始表明資料的合法和非法使用。”
資料的合法使用
戈爾貝克擔心,為了處理劍橋分析醜聞帶來的後果,Facebook可能會限制其提供給研究人員的資料。她說:“我們不想讓這樣一大塊讓社會運作的資訊被遮罩,只有Facebook和那些會幫助他們賺錢的人才能獲得資料。我們希望學術研究人員能夠將此用於研究。”但是,將之與一些學術研究人員濫用資料來賺錢或獲得權力相平衡是一個挑戰。
艾瑞爾將劍橋分析稱為“一個對是非對錯理解扭曲的邪惡角色”。他指出,通過Facebook等平臺合理使用技術“創造社會福利”與劍橋分析的所作所為,這兩者確實需要進行區分。 “如果結果變成因噎廢食,並說這個問題的唯一解決方案是關掉Facebook以及所有這些社交技術,那很可惜,因為你覺得沒法區分壞角色和好角色。”
內弗認為,儘管如此,複雜的資料分析“也可能用於產生很多好處。個性化溝通可以幫助人們為其鍛煉或健康飲食等長期目標努力,並獲得更符合自身需求的產品。技術本身並不是邪惡的。”
Join The Discussion
No Comments So Far