Senter for personvern og sikkerhet

Vår tilnærming til farlig og villedende innhold

Spotify-team jobber døgnet rundt for å skape en trygg og hyggelig opplevelse for skaperne, lytterne og annonsørene våre. Mens mesteparten av innholdet på plattformen vår er i samsvar med retningslinjene og mest lyttetid brukes på lisensiert innhold, prøver ondsinnede aktører av og til å ødelegge opplevelsen ved å dele villedende og/eller manipulert informasjon. Når vi identifiserer innhold som bryter plattformreglene våre, handler vi raskt for å iverksette passende tiltak. Les videre for å finne ut mer om taktikken vi bruker for å holde Spotify trygt.

Villedende innhold kan ha mange former, alt fra ufarlige rykter til svært seriøse, målrettede kampanjer utformet for å spre frykt og skade blant lokalsamfunn. I en verden i endring utvikler disse trendene seg raskt, og vi utnytter ekspertisen til våre interne team og eksterne partnere for å bedre forstå denne typen manipulasjon.

I mange tilfeller kan denne typen ondsinnede fortellinger deles av noen som kanskje ikke vet at de er falske eller villedende. Og mens noen usannheter ikke er farlige («hunden min er den smarteste i verden»), finnes det åpenbart andre alvorlige eksempler («kreft er en bløff»). Begrepet «feilinformasjon» brukes ofte for å beskrive flere typer manipulert informasjon, inkludert desinformasjon, som er innhold som bevisst deles av ondsinnede aktører for å så tvil om autentisk innhold.

Farlig og villedende innhold er nyansert og komplekst og krever en godt gjennomtenkt vurdering. Vi mener at vi ved å håndtere denne typen brudd gjennom flere retningslinjekategorier, kan være mer effektive og presise i våre beslutninger.

I retningslinjene våre for farlig innhold gjør vi det for eksempel klart at vi ikke tillater innhold som fremmer falsk eller villedende medisinsk informasjon som kan forårsake skade offline eller direkte true folkehelsen. Et annet eksempel er innenfor retningslinjene våre for villedende innhold, som skisserer at vi iverksetter tiltak mot innhold som forsøker å manipulere eller forstyrre valgrelaterte prosesser, inkludert det som skremmer eller undertrykker velgere fra å delta i et valg.

Når vi vurderer disse formene for nettmisbruk, tar vi høyde for flere faktorer, blant annet:

  • innholdet (for eksempel: Utgir skaperen seg for å være en annen?)
  • konteksten (er det for eksempel en nyhetsreportasje om en farlig fortelling som sprer seg, eller støtter den selve fortellingen?)
  • motivasjonen (for eksempel: Forsøker skaperen å lure en bruker til å stemme etter fristen?)
  • risikoen for skade (er det for eksempel stor sannsynlighet for at spredningen av innholdet vil resultere i overhengende fysisk skade?)

Farlig bedrag er ofte hyperlokalisert, rettet mot spesifikke markeder, språk og bestemte risikogrupper. For å løse dette utnytter vi lokal markedsekspertise for å sikre at vi holder oss nær nye trender som kan utgjøre en alvorlig risiko for skade, og vi skalerer denne menneskelige kunnskapen ved hjelp av maskinlæringsklassifiseringer. Denne tilnærmingen kalles HITL («human in the loop»).

Vi erkjenner at denne typen innhold kan være mer utbredt i perioder med usikkerhet og volatilitet, når autoritativ informasjon kan være mangelvare. Av denne grunn kan vi også iverksette en rekke innholdshandlinger for å begrense spredningen av potensielt støtende innhold under sensitive hendelser når det er en mer uttalt risiko for skadelige narrativer som fører til vold utenfor nettet.

For eksempel kan vi begrense hvorvidt innholdet kan oppdages i anbefalinger, inkludere en advarsel om støtende innhold eller velge å fjerne det fra plattformen. Vi kan også vise innhold fra autoritative kilder for å sikre at brukerne våre har tilgang til nøyaktig og pålitelig informasjon, for eksempel koblinger til offisielle valgrelaterte ressurser som er utviklet og vedlikeholdt av valgkommisjoner.

Vi gjentar kontinuerlig retningslinjene våre og gjennomgangsveiledningen basert på innspill fra våre egne Spotify-team, eksterne interessenter og våre partnere i Spotify Safety Advisory Council.

Du kan lese mer om vårt sikkerhetsarbeid her og se vår veiledning for skapere under tidligere valg her.