I team Spotify lavorano giorno e notte per creare un'esperienza sicura e piacevole per creator, ascoltatori e inserzionisti. Benché la maggior parte dei contenuti sulla piattaforma sia conforme alle norme e il tempo di ascolto sia in gran parte dedicato a contenuti con licenza, talvolta alcuni soggetti malintenzionati provano a compromettere l'esperienza condividendo informazioni ingannevoli e/o manipolate. Quando identifichiamo contenuti che violano le regole della piattaforma Spotify, agiamo tempestivamente per adottare i provvedimenti adeguati. Continua a leggere per scoprire di più sulle tattiche che utilizziamo per proteggere Spotify.
I contenuti ingannevoli possono assumere numerose forme, da pettegolezzi innocui a campagne mirate e molto pericolose, appositamente studiate per diffondere paura tra le community e danneggiarle. In un mondo in evoluzione, queste tendenze cambiano rapidamente e ci avvaliamo dell'esperienza dei nostri team interni e dei partner esterni per comprendere meglio questo tipo di manipolazioni.
In molti casi, questi contenuti dannosi potrebbero essere condivisi da persone che potrebbero non sapere che si tratta di informazioni false o fuorvianti. Nonostante alcune menzogne non siano pericolose ("il mio cane è il più intelligente del mondo"), altri esempi oltraggiosi, chiaramente, lo sono ("il cancro è una bufala"). L'espressione "informazioni non veritiere" viene spesso utilizzata per descrivere diverse tipologie di informazioni manipolate, tra cui la disinformazione, ossia contenuti deliberatamente condivisi da soggetti malintenzionati per seminare dubbi in relazione a contenuti autentici.
I contenuti pericolosi e ingannevoli sono sfaccettati e complessi e richiedono valutazioni ponderate e approfondite. Riteniamo che trattare queste violazioni mediante più categorie normative ci permetta di prendere decisioni più efficaci e accurate.
Ad esempio, nelle norme sui contenuti pericolosi, illustriamo chiaramente che non sono consentiti contenuti che promuovono informazioni mediche false o ingannevoli che potrebbero causare danni offline o minacciare direttamente la salute pubblica. Un altro esempio si trova all'interno delle nostre norme sui contenuti pericolosi, che specificano che adottiamo provvedimenti in relazione a contenuti che provano a manipolare i processi elettorali o interferire con gli stessi, comprese l'intimidazione degli elettori o azioni che impediscano loro di partecipare alle elezioni.
Nell'ambito della valutazione di queste forme di abuso online, consideriamo diversi fattori, tra cui:
Gli inganni pericolosi sono spesso iper-localizzati, rivolti a mercati e lingue specifici e a popolazioni particolarmente a rischio. Per affrontare il problema, sfruttiamo le competenze relative ai mercati locali per assicurarci di conoscere le tendenze emergenti che potrebbero comportare un rischio serio e incrementare la conoscenza umana tramite classificatori basati sul machine learning. Questo approccio è noto come "the human in the loop".
Siamo consapevoli della possibilità che questo tipo di contenuti sia più diffuso durante i periodi di incertezza e volatilità, quando le informazioni autorevoli potrebbero scarseggiare. Proprio per questo, potremmo intraprendere anche una serie di azioni relative ai contenuti per contribuire a limitare la diffusione di contenuti potenzialmente vietati durante eventi delicati laddove sussista un maggiore rischio di violenza offline a causa di contenuti dannosi.
Ad esempio, potremmo limitare la facilità di individuazione dei contenuti nei consigli, inserire un avviso sui contenuti oppure optare per la rimozione dalla piattaforma. Potremmo anche trasmettere contenuti da fonti autorevoli per garantire che gli utenti abbiano accesso a informazioni accurate e attendibili, ad esempio link a risorse elettorali ufficiali, sviluppate e mantenute dalle commissioni elettorali.
Riesaminiamo costantemente le nostre norme e linee guida per la revisione in base ai suggerimenti ricevuti dai team interni di Spotify, dagli stakeholder esterni e dai partner dello Spotify Safety Advisory Council.
Puoi approfondire qui il nostro operato in relazione alla sicurezza e consultare qui le linee guida per i creator durante le elezioni passate.