Center für Sicherheit und Datenschutz

Unser Ansatz für gefährliche und täuschende Inhalte

Die Teams von Spotify arbeiten weltweit rund um die Uhr daran, Creator*innen, Hörer*innen und Werbetreibenden eine sichere und angenehme Erfahrung zu bieten. Auch wenn die meisten Inhalte auf unserer Plattform unsere Richtlinien einhalten und lizenzierte Inhalte einen Großteil der Wiedergaben ausmachen, versuchen böswillige Akteure gelegentlich, Probleme zu bereiten, indem sie täuschende und/oder manipulierte Informationen teilen. Wenn wir feststellen, dass Inhalte die Spotify Plattformregeln verletzen, handeln wir umgehend und ergreifen entsprechende Maßnahmen. Im Folgenden erfährst du mehr über die Taktiken, mit denen wir Spotify absichern.

Irreführende Inhalte können die verschiedensten Formen annehmen, die bei harmlosen Gerüchten anfangen, aber auch ernstzunehmende, gezielte Kampagnen umfassen, die darauf ausgelegt sind, Mitglieder unserer Communitys einzuschüchtern und zu verletzen. Diese Trends entwickeln sich in unserer modernen Welt sehr schnell weiter. Daher setzen wir auf das Fachwissen unserer internen Teams und externen Partner, um diese Arten der Manipulation besser zu verstehen.

In vielen Situationen werden diese gefährlichen Informationen von Leuten geteilt, die sich nicht bewusst sind, dass sie inkorrekt und irreführend sind. Und auch wenn einige Unwahrheiten harmlos sind („Mein Hund ist der cleverste Hund auf der ganzen Welt“), gibt es viele, die definitiv gefährlich sind („Krebs ist eine Verschwörung“). Mit dem Begriff „Fehlinformation“ werden oft verschiedene Arten manipulierter Informationen beschrieben, z. B. Desinformation. Dabei handelt es sich um Inhalte, die bewusst von böswilligen Akteuren geteilt werden, um Zweifel in Bezug auf echte Inhalte zu säen.

Gefährliche und irreführende Inhalte sind nuanciert und komplex und müssen mit großer Sorgfalt evaluiert werden. Wir glauben, dass wir durch die Behandlung dieser Art von Verstößen über mehrere Richtlinienkategorien hinweg effektivere und präzisere Entscheidungen treffen können.

Laut unseren Richtlinien zu gefährlichen Inhalten ist beispielsweise die Verbreitung falscher oder irreführender medizinischer Informationen, die in der echten Welt Schaden anrichten können oder die allgemeine Gesundheit bedrohen, ausdrücklich verboten. Ein anderes Beispiel findest du in unseren Richtlinien zu täuschenden Inhalten: Dort ist festgelegt, dass wir gegen alle Inhalte Maßnahmen ergreifen, die es zum Ziel haben, wahlbezogene Prozesse zu manipulieren oder zu beeinträchtigen. Dazu gehören auch Inhalte, die darauf abzielen, Wähler*innen einzuschüchtern oder von der Teilnahme an der Wahl abzuhalten.

Bei der Bewertung dieser Art von Missbrauch im Internet berücksichtigen wir mehrere Faktoren, unter anderem:

  • die Substanz des Inhalts (z. B.: Gibt sich der*die Creator*in als eine andere Person aus?)
  • den Kontext (z. B.: Handelt es sich um einen Nachrichtenbeitrag über ein gefährliches Gerücht oder wird das Gerücht aktiv als Wahrheit verbreitet?)
  • die Motivation (z. B.: Versucht der*die Creator*in, eine andere Person dazu zu bewegen, nach Ablauf der Frist wählen zu gehen?)
  • das Risiko für Schaden (z. B.: Ist es wahrscheinlich, dass die Verbreitung eines Gerüchts zu direkten physischen Verletzungen führt?)

Gefährliche Desinformationen sind oft extrem regional und zielen auf spezifische Märkte, Sprachen oder bestimmte marginalisierte Gruppen ab. Wir gehen auf diese Probleme ein, indem wir Expert*innen aus regionalen Märkten einbeziehen, mit deren Hilfe wir aufkommende Trends verfolgen, die ein ernstzunehmendes Sicherheitsrisiko darstellen. Gleichzeitig verwenden wir maschinelles Lernen für die Klassifizierung dieses Fachwissens, damit wir es in großem Umfang anwenden können. Dieser Ansatz wird auch „Human in the Loop“ genannt.

Uns ist bewusst, dass Inhalte dieser Art insbesondere in ungewissen und unbeständigen Zeiten verstärkt in den Vordergrund rücken, wenn vertrauenswürdige Informationen seltener werden. Aus diesem Grund ergreifen wir möglicherweise verschiedene Maßnahmen in Bezug auf Inhalte, um die Verbreitung potenziell missbräuchlicher Inhalte einzugrenzen, insbesondere im Zusammenhang mit prekären Ereignissen, die das Risiko erhöhen, dass gefährliche Gerüchte zu Gewalttaten im echten Leben führen.

Hierzu schränken wir möglicherweise die Auffindbarkeit der Inhalte über Empfehlungen ein, fügen einen Inhaltshinweis hinzu oder entfernen die Inhalte vollständig von der Plattform. Um sicherzustellen, dass Nutzer*innen Zugang zu akkuraten und vertrauenswürdigen Informationen haben, können wir auch verstärkt Inhalte aus zuverlässigen Quellen anzeigen, z. B. Links zu offiziellen Ressourcen zu Wahlen, die von Wahlkommissionen erstellt und gepflegt werden.

Die kontinuierliche Weiterentwicklung unserer Richtlinien und Leitfäden für Prüfer*innen basiert auf Feedback, das wir von internen Teams bei Spotify, externen Stakeholder*innen und unseren Partner*innen im Spotify Safety Advisory Council erhalten.

Weitere Informationen zu unseren Sicherheitsbemühungen findest du hier. Unseren Leitfaden für Creator*innen für vergangene Wahlen findest du hier.