安全与隐私中心

我们处理危险和欺骗性内容的方式

Spotify 团队夜以继日地工作,旨在为我们的创作者、听众和广告商创造安全愉快的体验。虽然我们平台上的大多数内容都符合政策要求,并且用户将大多数收听时间都花在授权内容上,但偶尔也会有不良行为者试图通过分享欺骗性和/或经篡改的信息来破坏体验。当我们发现违反 Spotify 平台规则的内容时,我们会立即采取适当的行动。请继续阅读,深入了解我们用于保护 Spotify 免受侵害的策略。

欺骗性内容有多种形式,从无伤大雅的谣言到意图在社群中散布恐慌和伤害的严重针对性活动,不一而足。在不断变化的世界中,这些趋势发展迅速,因此我们会借助内部团队的专业知识和外部合作伙伴的力量,以更深入地了解此类操纵行为。

在许多情况下,此类恶意言论可能是由并不知道其虚假性或误导性的用户分享。虽然有些虚假信息并不危险(例如,“我的狗是世上最聪明的”),但其他极端的例子显然具有危险性(例如,“癌症是个骗局”)。“错误信息”一词经常用于描述多种类型的经篡改信息,包括虚假信息,即恶意行为者为使人们对真实内容产生怀疑而故意分享的内容。

危险和欺骗性内容错综复杂,需要经过大量细致审慎的评估。我们认为,通过多种政策类别来处理这些类型的违规行为,可以让我们更有效、更精确地做出决策。

例如,在我们的危险内容政策中,我们明确表示不允许宣传可能导致实质伤害或直接威胁公众健康的虚假或欺骗性医疗信息的内容。另一个例子是我们的欺骗性内容政策,其中规定我们会对试图操纵或干涉选举相关过程的内容(包括恐吓或打压选民以阻止其参与选举的内容)采取行动。

在评估这些形式的网络滥用情况时,我们会考虑多种因素,包括:

  • 内容的实质(例如,创作者是否冒充他人?)
  • 上下文(例如,这是一篇关于正在传播的危险言论的新闻报道,还是在为言论本身背书?)
  • 动机(例如,创作者是否试图欺骗用户在截止日期后投票?)
  • 造成危害的风险(例如,言论的传播是否很可能导致即将发生的人身伤害?)

危险的欺骗性内容往往是高度本地化的,针对特定的市场、语言和高风险人群。为应对这一问题,我们利用本地市场专业知识来帮助确保我们密切关注可能带来严重安全隐患的新兴趋势,并运用机器学习分类器扩展此类人类知识。这种方法被称为“人机互助”。

我们认识到,在不确定性和波动性较大的时期,这类内容可能会更为普遍,因为此时权威信息可能会稀缺。因此,我们也会在敏感事件期间对内容采取一系列措施,以帮助限制潜在侮辱性内容的传播,因为在这种情况下,有害言论更有可能导致实质性暴力行动。

例如,我们可能会限制内容在精选推荐中的曝光度,加入内容咨询警告,或选择将其从平台上删除。我们还可能会突出展示来自权威来源的内容,以确保用户能够获得准确、可信的信息,例如由选举委员会开发和维护的与投票相关的官方资源链接。

我们会根据 Spotify 团队、外部利益相关者以及 Spotify Safety Advisory Council(Spotify 安全顾问委员会)合作伙伴的意见,不断改进我们的政策和审查准则。

你可以在此处阅读有关我们的安全工作的更多信息,并在此处查看我们过去在选举期间为创作者提供的指导。