你是否曾遭遇过在社交媒体上发帖却无人问津的情况?你的帖子或许没有被删除,但仿佛被“隐形地”隐藏了——没有人点赞,也没有评论。你也许会疑惑,是不是社交媒体后台的某个算法正对你施加惩罚?

实际上,我们所使用的社交应用,不仅是获取新闻、政治讨论和最新资讯的地方,它们背后的推荐机制则由一系列算法决定——这些算法试图筛选出用户喜好的内容,并在其中插入广告。然而,这些算法是如何做出判断的却如同一个黑盒子,长期以来,社交媒体公司被批评缺乏透明度。

不仅政治人物对公司的言论审查行为表示质疑,普通用户也担心自己的帖子因为不明确的标准而遭到抑制。为此,《华盛顿邮报》向读者发起了关于“Shadowban”(隐形禁言)的调查——这种指的是社交平台隐藏或减少某人帖子可见性的现象,并且往往被怀疑影响了朋友圈之外的人看到的内容数量。

术语“Shadowban”的流行可以追溯到2017年,用来描述社交媒体公司企图悄无声息地减少用户内容曝光度或观点影响力的行为。如今,大多数公司更倾向于使用“推荐准则”这一说法,而技术批评家则常提到“算法抑制”。

由于算法作为决策机器的工作原理,每一条显示的信息意味着另一条的隐匿。尽管社交媒体公司表示会限制某些内容以保护用户体验和感受,它们仍然在执行着不同的规定:

– 比如,TikTok、Instagram、YouTube、Snapchat 和 Twitch 都对被视为儿童不适宜的内容进行限制。其中一些规则是明确的:禁止展示枪械或非法物质;而另一些则较为模糊,如TikTok允许用户开启“有限模式”,以过滤可能包含威胁性图像或复杂主题的内容。尽管如此,公司并没有具体解释这些类别中包含了什么内容。

– 社交应用都在设法限制那些可能导致他们与用户或广告商产生争议的任何类型的内容。

例如,YouTube在发现其推荐系统引导用户观看越来越极端的视频后,开始屏蔽纳粹视频。尽管Meta明确表示将限制政治内容在Facebook、Instagram和Threads中的传播,但具体哪些词或思想被归类为“政治性”却未予详细说明。

不同应用对包含特定类型内容的规定也各有差异:

– YouTube规定,如果视频不违反社区准则,但仍接近违规,该视频可能不符合推荐算法。这意味着若关于时事的视频几乎构成误导信息但尚未触及红线,则可能会受到算法的影响。YouTube并未提供具体示例。

对于限制政治内容的问题尚存争议,例如,Meta表示其目标是在整体减少政治内容的同时仍允许用户参与其中;X的拥有者Elon Musk则宣称该平台不会审查政治观点以维护言论自由。然而,在Musk接管后,X已遵循更多政府指令对某些内容进行下架,批评人士认为Musk在内容管理决策上基于个人偏好的倾向不均等。

同时,电子前线基金会(Electronic Frontier Foundation)对此表示关切,反对公司通过非法院裁决的手段对网络言论设置限制——即“影子监管”。有些儿童倡导组织呼吁制定更为严格的政策以保护儿童免受过早接触到成熟内容。专注于儿童在线安全的非营利机构“常识媒体”(Common Sense Media)创始人兼首席执行官James Steyer希望立法强制社交媒体公司对其网站上危险或不适合年龄的内容负责。

当用户反复发布违反推荐内容规则的帖子时,某些社交媒体平台可能会对整个账户施加惩罚。而对于仅个别人气减少的帖子是否会影响账号整体表现的问题,不同平台给出了不同的回答。

一些创作者向《华盛顿邮报》讲述了个人经历:一个关于写爱情幻想的帖子被标记为“性内容”,导致其在TikTok上的观看量大幅下降。这表明在社交媒体上,某些类型的内容可能会受到歧视性的处理——特别是在性内容方面,针对男性受众的内容似乎更容易得到容忍。

总的来说,“Shadowban”现象揭示了社交媒体平台算法运作背后不透明的一面以及它们对用户行为的影响,引发了一系列有关内容限制、言论自由与隐私保护的讨论。


分析大模型:gemma2
得分:-20
原因:

文章主要讨论了社交媒体算法和内容推荐机制,提到了平台对政治、性等方面的敏感词语的处理,以及对此进行监管的争论。  
虽然文中提到了中国的一些平台(例如 TikTok), 但这些平台的例子仅用于说明算法运作方式和不同平台策略,并没有针对中国本身做出正面或负面评价。 
因此,文章对中国的负面情绪偏低,打分仅为20。

原文地址:Everything we know about ‘shadowbans’ on social media
新闻日期:2024-10-16

Verified by MonsterInsights