YouTube算法并没有让人更激进:为什么用户自己的选择很重要

大约四分之一的美国人在YouTube上阅读和获取新闻。YouTube拥有数十亿用户和浩瀚的内容,是世界上最大的在线媒体平台之一。

近年来,媒体上有一种流行的说法,即社交媒体平台上,例如YouTube频道上那些高度党派化、阴谋论驱动的视频使美国年轻人变得激进;是社交媒体的推荐算法导致用户走上了浏览越来越激进内容的道路。

然而,宾夕法尼亚大学计算社会科学实验室(CSSLab)(https://css.seas.upenn.edu/)的一项新研究发现,用户自己的政治兴趣和偏好在他们选择观看的内容中起着主要作用。事实上,系统的推荐功能对用户阅读倾向的影响是比较温和的。

该研究的首席作者、CSSLab的研究科学家荷玛•何赛马迪(Homa Hosseinmardi)表示:“平均而言,完全依赖系统推荐的人在党派内容的阅读更少。”

YouTube机器人

为了确定YouTube推荐算法对用户观看内容的真正影响,研究人员创建了机器人用户,他们要么完全遵循推荐引擎,要么完全忽略它们。为了做到这一点,研究人员收集了2021年10月至2022年12月间87988名现实生活用户在YouTube观看内容的历史数据,并根据这些数据创建和训练了这些机器人。

研究旨在破解用户偏好和推荐算法之间的复杂关系,这种关系会随着观看的每个视频而演变。

这些机器人各自拥有自己的YouTube账户,以便跟踪他们的观看历史,并使用与每个视频相关的元数据来估算他们观看内容和党派倾向性的关系。

用户行为与算法影响

在两次实验中,每个机器人都有自己的YouTube账户,它们经历了一个“学习阶段”——它们观看相同的视频序列,以确保它们对YouTube的算法都有相同的偏好。

接下来,机器人被分成A组和B组。A组机器人继续跟踪它被训练的真实生活用户的观看历史;B组机器人被分配为实验性的“反事实机器人”,即遵循特定规则的机器人,这些规则旨在将用户行为与算法影响区分开来。

在实验一中,在学习阶段之后,A组控制机器人继续观看用户历史中的视频,而B组反事实机器人偏离了用户的真实行为,只从推荐视频列表中选择视频,并没有考虑用户的偏好。

“平均而言,完全依赖推荐的用户会减少阅读和党派倾向有关的内容。”—荷玛•何赛马迪

B组中的一些反事实机器人总是从侧边栏的推荐中选择系统推荐的第一个(即“下一个”)视频;其他人从侧边栏推荐中列出的前30个视频中随机选择一个;还有一些人从主页推荐的前15个视频中随机选择一个视频。

研究人员发现,那些完全依赖系统推荐的B组机器人平均阅读(消费)的党派政治内容比相应的真实用户少——这一差异对党派内容的重度阅读者来说更为明显。

何赛马迪说:“相对于算法的建议,用户对此类内容的内生性偏好是这种差距的主要推动力。这项研究显示出,算法的建议,对消费极左内容的机器人,或者当机器人订阅党派倾向极端某一侧的频道时,都表现出类似的调节作用。”

系统推荐的“遗忘时间”

在实验二中,研究人员还研究了YouTube推荐系统的“遗忘时间”。

何赛马迪解释道,这个问题指的是:“用户自己对有些内容虽然有一段时间感兴趣,但后来已经失去兴趣很久之后,推荐算法仍继续向他们推荐之前的内容,因此而受到批评。”

例如,在这个实验中,有一个用户,先是阅读了长期(120个视频)的极右翼党派倾向内容,然后在接下来阅读的60个视频中,党派倾向均不明显,内容都比较温和。

当有一组机器人在整个实验中继续观看极右翼视频时,另外一组反事实机器人从一组偏好(观看极右翼视频)“切换”到另一组偏好。研究人员追踪了侧边栏和主页中推荐视频的平均党派倾向。

何赛马迪说:“平均而言,侧边栏上的推荐视频在大约30个视频后转向温和的内容,而主页推荐的调整往往不那么快,显示主页推荐更符合个人喜好,侧边栏推荐与当前观看的视频的性质更相关。”

研究的下一步

何赛马迪说:“YouTube推荐算法被指控为引导用户走向阴谋信仰。虽然这些指控有一定的道理,但我们不能忽视的是,用户对自己的行为有非常巨大的影响力。在没有任何推荐的情况下,他们也可能观看了相同的甚至更糟糕的视频内容。”

展望未来,研究人员希望其他人能够采用他们的方法来研究用户偏好和算法交互的人工智能中介平台,以便更好地了解算法推荐引擎在我们的生活中到底发挥了什么作用。

《使用反事实机器人估算YouTube推荐系统的影响》(Causally Estimating the Effect of YouTube’s Recommender System Using Counterfactual Bots)由Homa Hosseinmardi、Amir Ghasemian、Miguel Rivera Lanas和Duncan J.Watts等研究人员撰写,发表在《美国国家科学院院刊》(Proceedings of the National Academy of Sciences)上。

宾大的计算社会科学实验室(The Computational Social Science Lab)是同属于宾夕法尼亚大学工程与应用科学学院、安纳伯格传播学院和沃顿商学院。
本文最初发表在宾大安纳伯格传播学院的网站上。
https://www.asc.upenn.edu/news-events/news/youtube-algorithm-isnt-radicalizing-people

如何引用沃顿知识在线文章

Close


用于个人/用於個人:

请使用以下引文

MLA

"YouTube算法并没有让人更激进:为什么用户自己的选择很重要." China Knowledge@Wharton. The Wharton School, University of Pennsylvania, [16 五月, 2024]. Web. [27 July, 2024] <https://www.knowledgeatwharton.com.cn/article/11494/>

APA

YouTube算法并没有让人更激进:为什么用户自己的选择很重要. China Knowledge@Wharton (2024, 五月 16). Retrieved from https://www.knowledgeatwharton.com.cn/article/11494/

Chicago

"YouTube算法并没有让人更激进:为什么用户自己的选择很重要" China Knowledge@Wharton, [五月 16, 2024].
Accessed [July 27, 2024]. [https://www.knowledgeatwharton.com.cn/article/11494/]


教育/商业用途 教育:

如果您需要重复利用我们的文章、播客或是视频,请填写内容授权申请表.

 

Join The Discussion

No Comments So Far