YouTube演算法並沒有讓人更激進:為什麼用戶自己的選擇很重要

大約四分之一的美國人在YouTube上閱讀和獲取新聞。YouTube擁有數十億用戶和浩瀚的內容,是世界上最大的線上媒體平臺之一。

近年來,媒體上有一種流行的說法,即社交媒體平臺上,例如YouTube頻道上那些高度黨派化、陰謀論驅動的視頻使美國年輕人變得激進;是社交媒體的推薦演算法導致用戶走上了流覽越來越激進內容的道路。

然而,賓夕法尼亞大學計算社會科學實驗室(CSSLab)(https://css.seas.upenn.edu/)的一項新研究發現,用戶自己的政治興趣和偏好在他們選擇觀看的內容中起著主要作用。事實上,系統的推薦功能對用戶閱讀傾向的影響是比較溫和的。

該研究的首席作者、CSSLab的研究科學家荷瑪•何賽馬迪(Homa Hosseinmardi)表示:“平均而言,完全依賴系統推薦的人在黨派內容的閱讀更少。”

YouTube機器人

為了確定YouTube推薦演算法對用戶觀看內容的真正影響,研究人員創建了機器人用戶,他們要麼完全遵循推薦引擎,要麼完全忽略它們。為了做到這一點,研究人員收集了2021年10月至2022年12月間87988名現實生活用戶在YouTube觀看內容的歷史數據,並根據這些數據創建和訓練了這些機器人。

研究旨在破解用戶偏好和推薦演算法之間的複雜關係,這種關係會隨著觀看的每個視頻而演變。

這些機器人各自擁有自己的YouTube帳戶,以便跟蹤他們的觀看歷史,並使用與每個視頻相關的元數據來估算他們觀看內容和黨派傾向性的關係。

用戶行為與演算法影響

在兩次實驗中,每個機器人都有自己的YouTube帳戶,它們經歷了一個“學習階段”——它們觀看相同的視頻序列,以確保它們對YouTube的演算法都有相同的偏好。

接下來,機器人被分成A組和B組。A組機器人繼續跟蹤它被訓練的真實生活用戶的觀看歷史;B組機器人被分配為實驗性的“反事實機器人”,即遵循特定規則的機器人,這些規則旨在將用戶行為與演算法影響區分開來。

在實驗一中,在學習階段之後,A組控制機器人繼續觀看用戶歷史中的視頻,而B組反事實機器人偏離了用戶的真實行為,只從推薦視頻列表中選擇視頻,並沒有考慮用戶的偏好。

“平均而言,完全依賴推薦的用戶會減少閱讀和黨派傾向有關的內容。”—荷瑪•何賽馬迪

B組中的一些反事實機器人總是從側邊欄的推薦中選擇系統推薦的第一個(即“下一個”)視頻;其他人從側邊欄推薦中列出的前30個視頻中隨機選擇一個;還有一些人從主頁推薦的前15個視頻中隨機選擇一個視頻。

研究人員發現,那些完全依賴系統推薦的B組機器人平均閱讀(消費)的黨派政治內容比相應的真實用戶少——這一差異對黨派內容的重度閱讀者來說更為明顯。

何賽馬迪說:“相對於演算法的建議,用戶對此類內容的內生性偏好是這種差距的主要推動力。這項研究顯示出,演算法的建議,對消費極左內容的機器人,或者當機器人訂閱黨派傾向極端某一側的頻道時,都表現出類似的調節作用。”

系統推薦的“遺忘時間”

在實驗二中,研究人員還研究了YouTube推薦系統的“遺忘時間”。

何賽馬迪解釋道,這個問題指的是:“用戶自己對有些內容雖然有一段時間感興趣,但後來已經失去興趣很久之後,推薦演算法仍繼續向他們推薦之前的內容,因此而受到批評。”

例如,在這個實驗中,有一個用戶,先是閱讀了長期(120個視頻)的極右翼黨派傾向內容,然後在接下來閱讀的60個視頻中,黨派傾向均不明顯,內容都比較溫和。

當有一組機器人在整個實驗中繼續觀看極右翼視頻時,另外一組反事實機器人從一組偏好(觀看極右翼視頻)“切換”到另一組偏好。研究人員追蹤了側邊欄和主頁中推薦視頻的平均黨派傾向。

何賽馬迪說:“平均而言,側邊欄上的推薦視頻在大約30個視頻後轉向溫和的內容,而主頁推薦的調整往往不那麼快,顯示主頁推薦更符合個人喜好,側邊欄推薦與當前觀看的視頻的性質更相關。”

研究的下一步

何賽馬迪說:“YouTube推薦演算法被指控為引導用戶走向陰謀信仰。雖然這些指控有一定的道理,但我們不能忽視的是,用戶對自己的行為有非常巨大的影響力。在沒有任何推薦的情況下,他們也可能觀看了相同的甚至更糟糕的視頻內容。”

展望未來,研究人員希望其他人能夠採用他們的方法來研究用戶偏好和演算法交互的人工智慧仲介平臺,以便更好地瞭解演算法推薦引擎在我們的生活中到底發揮了什麼作用。

《使用反事實機器人估算YouTube推薦系統的影響》(Causally Estimating the Effect of YouTube’s Recommender System Using Counterfactual Bots)由Homa Hosseinmardi、Amir Ghasemian、Miguel Rivera Lanas和Duncan J.Watts等研究人員撰寫,發表在《美國國家科學院院刊》(Proceedings of the National Academy of Sciences)上。

賓大的計算社會科學實驗室(The Computational Social Science Lab)是同屬於賓夕法尼亞大學工程與應用科學學院、安納伯格傳播學院和沃頓商學院。
本文最初發表在賓大安納伯格傳播學院的網站上。
https://www.asc.upenn.edu/news-events/news/youtube-algorithm-isnt-radicalizing-people

 

如何引用沃顿知识在线文章

Close


用于个人/用於個人:

请使用以下引文

MLA

"YouTube演算法並沒有讓人更激進:為什麼用戶自己的選擇很重要." China Knowledge@Wharton. The Wharton School, University of Pennsylvania, [16 五月, 2024]. Web. [12 December, 2024] <https://www.knowledgeatwharton.com.cn/zh-hant/article/11498/>

APA

YouTube演算法並沒有讓人更激進:為什麼用戶自己的選擇很重要. China Knowledge@Wharton (2024, 五月 16). Retrieved from https://www.knowledgeatwharton.com.cn/zh-hant/article/11498/

Chicago

"YouTube演算法並沒有讓人更激進:為什麼用戶自己的選擇很重要" China Knowledge@Wharton, [五月 16, 2024].
Accessed [December 12, 2024]. [https://www.knowledgeatwharton.com.cn/zh-hant/article/11498/]


教育/商业用途 教育:

如果您需要重复利用我们的文章、播客或是视频,请填写内容授权申请表.

 

Join The Discussion

No Comments So Far