Veiligheids- en privacycentrum

Onze aanpak bij gevaarlijke en misleidende content

Er zijn dag en nacht teams van Spotify aan het werk, zodat onze dienst veilig en plezierig is voor makers, luisteraars en adverteerders. Hoewel de meerderheid van de content op ons platform onder ons beleid valt en de meeste luistertijd wordt besteed aan gelicentieerde content, lukt het kwaadwillenden soms om misleidende en/of manipulatieve informatie te delen. Wanneer we content identificeren die de regels van het Spotify-platform schendt, ondernemen we onmiddellijk actie. Lees verder over de tactieken die we gebruiken om Spotify veilig te houden.

Er bestaan veel soorten misleidende content: van onschuldige roddels tot ernstige, gerichte campagnes bedoeld om angst en haat te zaaien in gemeenschappen. Met alles wat er in de wereld gebeurt, kunnen deze trends zich snel ontwikkelen. Daarom gebruiken we onze interne teams en roepen we hulp in van partners om deze vormen van manipulatie beter in kaart te brengen.

Vaak worden dit soort verhalen gedeeld door mensen die niet weten dat ze onjuist of misleidend zijn. En hoewel sommige onjuistheden niet gevaarlijk zijn ('mijn hond is de slimste hond ter wereld'), zijn andere dat duidelijk wel ('kanker bestaat niet'). De term 'misinformatie' wordt vaak gebruikt om verschillende typen gemanipuleerde informatie, zoals desinformatie, aan te duiden. Dat laatste is content die bewust door kwaadwillenden wordt gedeeld om twijfel te zaaien over authentieke content.

Gevaarlijke en misleidende content is geraffineerd en gecompliceerd en moet uitgebreid en zorgvuldig worden behandeld. We denken dat we effectiever kunnen zijn en betere beslissingen kunnen nemen als we deze soorten schendingen via meerdere beleidscategorieën kunnen aanpakken.

In ons beleid inzake gevaarlijke content maken we bijvoorbeeld duidelijk dat we geen content toestaan die onjuiste of misleidende medische informatie promoot en offline gevaar voor de gezondheid kan opleveren of een directe bedreiging vormt voor de volksgezondheid. Een voorbeeld is te vinden in ons beleid inzake misleidende content. We ondernemen actie tegen content die is gericht op het manipuleren of verstoren van processen die betrekking hebben op verkiezingen, waaronder het intimideren of onderdrukken van kiezers.

Bij de beoordeling van deze vormen van online misbruik kijken we naar verschillende factoren, waaronder:

  • de inhoud van de content (voorbeeld: doet de maker zich voor als iemand anders?)
  • de context (voorbeeld: is het een nieuwsrapportage over een gevaarlijk verhaal dat zich verspreidt of spreekt er goedkeuring uit voor het verhaal zelf?)
  • de motivatie (probeert de maker de gebruiker bijvoorbeeld over te halen op een datum te stemmen waarop stemmen niet meer mogelijk is?)
  • risico op letsel (voorbeeld: is de kans groot dat de toon van de content leidt tot onmiddellijk fysiek gevaar?)

Gevaarlijke misleiding is vaak sterk gelokaliseerd, gericht op specifieke markten, specifieke talen en bepaalde groepen die er sneller slachtoffer van worden. Om hierop in te spelen, gebruiken we de expertise van de lokale markt zodat we opkomende trends kunnen volgen die mogelijk ernstige risico's vormen. We combineren deze kennis met classificaties van machine learning. Deze aanpak staat beter bekend als 'the human in the loop' (HITL).

We weten dat er meer van dit soort content kan zijn in onzekere tijden en tijden van instabiliteit, wanneer officiële informatie soms beperkt is. Daarom kunnen we ook een aantal contentmaatregelen nemen om de verspreiding te beperken van potentieel schadelijke content tijdens belangrijke evenementen waarbij er een groter risico is op gevaarlijke verhalen die tot geweld in de echte wereld kunnen leiden.

We kunnen er bijvoorbeeld voor zorgen dat de content minder goed te vinden is in aanbevelingen, een contentwaarschuwing plaatsen of ervoor kiezen om de content van het platform te verwijderen. We kunnen ook content van officiële bronnen weergeven, zodat gebruikers toegang hebben tot betrouwbare en accurate informatie, zoals links naar officiële bronnen over het stemmen die beheerd worden door kiescommissies.

We werken ons beleid en onze richtlijnen voor beoordelaars continu bij op basis van informatie die we ontvangen van onze eigen Spotify-teams, externe belanghebbenden en onze partners van de Spotify Safety Advisory Council.

Je leest hier meer over ons toezicht en kunt onze makersrichtlijnen voor eerdere verkiezingen hier bekijken.