Centrum ochrony prywatności i bezpieczeństwa

Podejście do treści niebezpiecznych i wprowadzających w błąd

Zespoły Spotify nieustannie pracują nad tym, aby zapewnić bezpieczeństwo i przyjemność korzystania z serwisu wszystkich twórcom, słuchaczom i reklamodawcom. Choć większość treści w Spotify jest zgodna z naszą polityką i objęta licencją, nieuczciwe podmioty działają niekiedy na szkodę wrażeń użytkownika poprzez rozpowszechnianie zmanipulowanych i/lub wprowadzających w błąd informacji. W przypadku wykrycia treści naruszających Politykę treści Spotify podejmujemy natychmiast stosowne działania. W dalszych sekcjach niniejszego artykułu znajdziesz szczegółowe informacje o strategiach Spotify mających na celu wyeliminowanie ryzyka wystąpienia szkody.

Treści wprowadzające w błąd mogą przybierać różne postaci, począwszy od nieszkodliwych plotek, skończywszy na bardzo poważnych, kierowanych kampaniach mających na celu wzbudzanie strachu lub działanie na szkodę społeczności. W dzisiejszych czasach te tendencje szybko się zmieniają. Dlatego wykorzystujemy wiedzę i doświadczenie naszych zespołów oraz partnerów zewnętrznych, aby lepiej zrozumieć tego rodzaju manipulacje.

W wielu przypadkach tego rodzaju szkodliwa narracja może być rozpowszechniana przez osobę nieświadomą tego, że dane treści są nieprawdziwe lub wprowadzające w błąd. Choć niektóre fałszywe informacje mogą być niegroźne (np. „mój pies jest najmądrzejszym psem na świecie”), inne rażące wypowiedzi mogą być niebezpieczne (np. „rak to wymysł”). „Myląca informacja”, czyli taka, która wprowadza w błąd, obejmuje wiele form zmanipulowanych informacji, w tym dezinformację, czyli celowe rozpowszechnią nieprawdziwą informację przez nieuczciwy podmiot w celu zasiania wątpliwości wobec faktów.

Treści niebezpieczne i wprowadzające w błąd to złożona kwestia pełna niuansów, w związku z czym wymagają one dogłębnej i przemyślanej analizy. Wierzymy, że zapobieganie tego typu naruszeniom poprzez wprowadzanie różnych kategorii zasad zapewnia większą skuteczność i precyzyjność podejmowanych przez nas decyzji.

Na przykład nasze zasady dotyczące niebezpiecznych treści wyraźnie zabraniają publikowania treści promujących fałszywe lub wprowadzające w błąd informacje medyczne, które mogą stanowić bezpośrednie zagrożenie dla zdrowia publicznego lub zdrowia jednostki. Natomiast zgodnie z naszymi zasadami dotyczącymi treści wprowadzających w błąd podejmujemy działania w przypadku wykrycia treści, które mają na celu zmanipulowanie lub wpłynięcie na przebieg wyborów, w tym zastraszanie wyborców lub uniemożliwienie im udziału w wyborach.

Oceniając wspomniane formy cyberprzemocy, bierzemy pod uwagę wiele czynników, takich jak:

  • główny temat treści (na przykład: czy twórca treści podszywa się pod inną osobę);
  • kontekst (np. czy mamy do czynienia z doniesieniem prasowym na temat rozpowszechniającej się szkodliwej narracji, czy tekst ten wyraża poparcie dla niniejszej narracji);
  • motywacja (np. czy autor próbuje nakłonić użytkownika do oddania głosu po terminie);
  • ryzyko wyrządzenia szkód (np. czy jest prawdopodobnym, że rozpowszechnianie narracji prowadzi do uszkodzeń zdrowia fizycznego);

Niebezpieczne oszustwa skupiają się często na bardzo ograniczonym obszarze i są kierowane na konkretne rynki, grupy językowe lub populacje szczególnie narażone na ryzyko. W związku z tym korzystamy z kompetencji przedstawicieli lokalnego rynku, aby być na bieżąco z kształtującymi się tendencjami potencjalnie stanowiącymi poważne ryzyko wystąpienia szkody. Następnie odpowiednio skalujemy zgromadzone w ten sposób informacje za pomocą klasyfikatorów bazujących na uczeniu maszynowym. Metoda ta określana jest jako „human-in-the-loop” (w skrócie „HITL”).

Zdajemy sobie sprawę z tego, że tego rodzaju treści są bardziej powszechne w niepewnym i niestabilnym czasie, gdy dostęp do rzetelnych informacji może być ograniczony. Dlatego możemy również podjąć szereg działań mających na celu ograniczenie rozprzestrzeniania się potencjalnie obraźliwych treści podczas zdarzeń o charakterze wrażliwym zwiększających ryzyko szerzenia szkodliwych narracji, które mogą skutkować rzeczywistą przemocą.

Możemy na przykład ograniczyć pojawianie się treści w rekomendacjach, opatrzyć je ostrzeżeniem lub całkowicie usunąć je z platformy. Możemy również wyróżniać treści pochodzące z zaufanych źródeł, aby zapewnić naszym użytkownikom dostęp do wiarygodnych i rzetelnych informacji, takie jak linki do oficjalnych materiałów na temat wyborów publikowane przez komisje wyborcze.

Regularnie aktualizujemy nasze zasady i wytyczne dla weryfikatorów na podstawie danych dostarczanych przez zespoły Spotify, interesariuszy zewnętrznych oraz naszych partnerów należących do Spotify Safety Advisory Council.

Tutaj dowiesz się więcej na temat naszych działań na rzecz bezpieczeństwa, a tutaj znajdziesz wytyczne dla twórców obowiązujące podczas minionych wyborów.