研究人员表示,Facebook的算法具有“影响力”,但并不一定会改变人们的信念

2025-01-10 12:57来源:

A sign at the corporate campus of me<em></em>ta, parent company of Facebook, in Menlo Park, California, shows the me<em></em>ta logo and reads “me<em></em>ta. 1 Hacker Way.”

旧金山——推动数十亿人在社交网络上看到的内容的Facebook和Instagram的算法,多年来一直是立法者、活动人士和监管机构的焦点。许多人呼吁废除这些算法,以阻止病毒式错误信息的传播,防止政治分歧的加剧。

但周四发表的四项新研究——其中一项研究调查了在2020年总统大选中使用Facebook的2.08亿美国人的数据——使这种说法变得复杂。

在论文中,来自德克萨斯大学、纽约大学、普林斯顿大学和其他机构的研究人员发现,删除社交平台算法的一些关键功能对人们的政治信仰“没有可衡量的影响”。研究人员说,在一项关于Facebook算法的实验中,当人们重新分享帖子的能力被删除时,他们对政治新闻的了解就会下降。

与此同时,另一项研究显示,Facebook和Instagram上的政治新闻消费因意识形态而高度隔离。研究发现,在2020年大选期间,在应用程序上阅读“不可信”新闻报道链接的人中,有97%被认为是保守派,主要参与右翼内容。

发表在《科学》(Science)和《自然》(Nature)杂志上的这两项研究,提供了一幅矛盾而微妙的画面,展示了美国人是如何使用世界上最大的两个社交平台的,并受到了它们的影响。相互矛盾的结果表明,理解社交媒体在塑造话语方面的作用可能需要数年时间才能解开。

这些论文之所以引人注目,还因为大量的Facebook和Instagram用户被纳入其中,而且研究人员获得了数据,并与拥有这些应用程序的meta合作制定和运行了实验。这些研究是一系列16篇同行评议论文中的第一篇。以前的社交媒体研究主要依赖于公开可用的信息,或者是基于从互联网上“抓取”或下载的少数用户信息。

德克萨斯大学奥斯汀分校(University of Texas at Austin)媒体参与中心(Center for Media Engagement)创始人兼主任塔利亚·斯特劳德(Talia Stroud),以及参与领导该项目的纽约大学社交媒体与政治中心(Center for Social Media and Politics)教授兼联合创始人约书亚·塔克(Joshua Tucker)表示,他们“现在知道了该算法在塑造人们在平台上的体验方面有多大的影响力”。

但斯特劳德在接受采访时表示,该研究表明“我们正在处理相当复杂的社会问题”,社交媒体的影响可能“没有灵丹妙药”。

“我们必须小心我们假设正在发生的事情与实际发生的事情,”于2021年离开公司的meta前公共政策主管凯蒂·哈巴思(Katie Harbath)说。她补充说,这些研究颠覆了“社交媒体的假设影响”。她说,人们的政治偏好受到许多因素的影响,“我们所有的困境不能仅仅归咎于社交媒体。”

meta于2020年8月宣布将参与这项研究,并在芝加哥大学国家民意研究中心(National Opinion research Center)的工作上花费了2000万美元。芝加哥大学是一家无党派机构,帮助收集了一些数据。该公司没有向研究人员支付报酬,尽管它的一些员工与这些学者一起工作。meta能够否决侵犯用户隐私的数据请求。

威斯康星大学麦迪逊分校(University of Wisconsin-Madison)大众传播学教授迈克尔·瓦格纳(Michael Wagner)是该项目的独立审计员,他说,这项工作不是未来研究的典范,因为它需要meta的直接参与,而后者掌握了所有数据,只向研究人员提供了某些类型的数据。研究人员表示,他们对论文的结论有最终决定权。

meta全球事务总裁尼克·克莱格(Nick Clegg)表示,这些研究表明,“几乎没有证据表明,meta平台的关键特征本身就会导致有害的‘情感’两极分化,或者对这些结果产生有意义的影响。”他说,虽然关于社交媒体和民主的争论不会因为这些发现而得到解决,但“我们希望并期待它能促进社会对这些问题的理解。”

这些报纸出现在社交媒体行业的动荡时期。本月,meta推出了与Twitter竞争的Threads。Twitter的所有者埃隆·马斯克(Elon Musk)改变了这个平台,最近将其重新命名为x。Discord、YouTube、Reddit和TikTok等其他网站也在蓬勃发展,乳齿象(Mastodon)和Bluesky等新进入者似乎也获得了一些吸引力。

最受欢迎的

近年来,meta也试图将重点从社交应用转移到所谓的虚拟世界(metaverse)的沉浸式数字世界。在过去的18个月里,meta公司负责构建虚拟世界的Reality Labs部门出现了超过210亿美元的运营亏损。

多年来,研究人员一直对Facebook和Instagram背后的算法提出质疑,这些算法决定了人们在应用程序的推送中看到的内容。2021年,前Facebook员工弗朗西丝·豪根(Frances Haugen)成为举报人,进一步将他们置于聚光灯下。她向立法者和媒体提供了数千份公司文件,并在国会作证说,Facebook的算法“导致青少年接触到更多厌食症内容”,在埃塞俄比亚等国家“实际上是在煽动种族暴力”。

包括明尼苏达州民主党参议员艾米·克洛布查尔(Amy Klobuchar)在内的立法者。以及怀俄明州共和党人辛西娅·卢米斯(Cynthia Lummis)。后来,美国提出了研究或限制算法的法案。没有一个通过。

在周四公布的四项研究中,Facebook和Instagram的用户被要求并同意参与其中的三项研究,他们的身份信息被掩盖了。在第四项研究中,该公司向研究人员提供了2.08亿Facebook用户的匿名数据。

其中一项研究的标题是“社交媒体动态算法如何影响态度?”在这项研究中,研究人员对2.3万多名Facebook用户和2.1万名Instagram用户进行了调查,他们用倒序feed取代了算法,这意味着人们首先看到的是最近的帖子,而不是主要根据他们的兴趣定制的帖子。

然而,研究人员发现,人们的“两极分化”或政治知识并没有改变。在学者们的调查中,人们并没有报告说他们的行为发生了变化,比如在他们的feed被改变后签署了更多的在线请愿书或参加了更多的政治集会。

令人担忧的是,根据这项研究,按时间倒序的推送会增加人们看到的不可信内容的数量。

这项研究分析了2020年大选期间2.08亿美国脸书用户的数据,发现他们因政治意识形态而分裂,那些被认为是保守派的人比那些被认为是自由派的人看到更多的错误信息。

研究显示,保守派倾向于阅读更多政治新闻链接,而这些链接几乎都是由其他保守派人士阅读的。在被第三方事实核查员标记为虚假的新闻文章中,超过97%被保守派视为虚假。让用户关注自己感兴趣的话题的Facebook Pages和Groups比用户的朋友分享了更多指向超党派文章的链接。

该研究称,Facebook的页面和群组是一个“非常强大的管理和传播机器”。

尽管如此,研究人员表示,Facebook用户阅读的虚假新闻文章比例低于所有阅读的新闻文章。

在另一篇论文中,研究人员发现,减少23000名Facebook用户的feed中由“志同道合”的人发布的内容数量,并没有明显改变参与者的信仰或政治两极分化。

该研究的作者说:“这些发现挑战了将当代美国民主问题归咎于社交媒体回音室的流行说法。”

在对2.7万名Facebook和Instagram用户进行的第四项研究中,人们表示,在一项实验中,当他们转发帖子的能力被剥夺时,他们对政治新闻的了解就会下降。论文总结道,删除转发按钮最终不会改变人们的信念或观点。

研究人员警告说,他们的发现受到许多变量的影响。例如,在2020年总统大选之前,一些实验的时机可能意味着用户的政治态度已经得到了巩固。

有些发现可能已经过时了。自从研究人员开始这项工作以来,meta已经不再在Facebook和Instagram的用户主要新闻源中展示出版商的新闻内容。该公司还会定期调整算法,以保持用户的参与度。

研究人员表示,尽管如此,他们还是希望这些论文能在其他社交媒体公司的参与下,在这一领域开展更多的工作。

纽约大学的塔克说:“我们非常希望社会通过其政策制定者采取行动,使这类研究能够在未来继续下去。”“这应该是社会认为符合自身利益的事情。”

彬彬网声明:未经许可,不得转载。