Centre de sécurité et de confidentialité

Notre approche en matière de contenu dangereux et trompeur

Les équipes Spotify travaillent en continu pour créer une expérience sûre et agréable pour nos créateurs, auditeurs et annonceurs. La majorité du contenu sur notre plateforme est conforme aux règles, et la plupart du temps d'écoute est consacré à des contenus sous licence. Cependant, des acteurs malintentionnés essaient parfois de gâcher l'expérience en partageant des informations trompeuses et/ou manipulées. Lorsque nous identifions du contenu qui enfreint le Règlement de la plateforme Spotify, nous prenons rapidement les mesures appropriées. Poursuivez votre lecture pour en savoir plus sur les stratégies mises en place pour protéger Spotify contre les préjudices.

Le contenu trompeur peut prendre de nombreuses formes, allant de rumeurs inoffensives à des campagnes ciblées et très graves, conçues pour nuire et répandre la peur au sein des communautés. Dans un monde qui change, ces tendances évoluent rapidement, et nous tirons parti de l'expertise de nos équipes internes et partenaires externes pour mieux comprendre ces types de manipulation.

Dans de nombreux cas, ces contenus malveillants peuvent être partagés par une personne qui ne sait peut-être pas qu'ils sont faux ou trompeurs. Et, même si certaines fausses informations ne sont pas dangereuses (« mon chien est le plus intelligent au monde »), d'autres exemples flagrants le sont clairement (« le cancer est un canular »). Le terme « mésinformation » est fréquemment utilisé pour décrire plusieurs types d'informations manipulées, y compris la désinformation, qui désigne le partage délibéré de contenu par des acteurs malveillants pour semer le doute sur une information authentique.

Le contenu dangereux et trompeur est nuancé et complexe, et requiert une évaluation réfléchie. Nous pensons qu'en abordant ces problèmes de non-respect à travers plusieurs catégories de règles, nous pouvons être plus efficaces et précis dans nos décisions.

Par exemple, dans nos Règles relatives au contenu dangereux, nous indiquons clairement que nous n'autorisons pas le contenu qui promeut des informations médicales fausses ou trompeuses susceptibles de nuire dans la vie réelle ou de menacer directement la santé publique. Un autre exemple est présenté dans nos règles relatives au contenu trompeur, qui stipulent que nous prenons des mesures pour le contenu qui tente de manipuler ou d'entraver les processus liés aux élections, y compris le contenu qui intimide les électeurs ou les empêche de participer à une élection.

Lorsque nous évaluons ces formes d'abus en ligne, nous prenons en compte plusieurs facteurs, notamment :

  • le fond du contenu (par exemple, le créateur se fait-il passer pour quelqu'un d'autre ?) ;
  • le contexte (par exemple, s'agit-il d'un reportage sur un contenu dangereux qui se propage ou d'une promotion du contenu lui-même ?) ;
  • la motivation (par exemple, le créateur tente-t-il de tromper un utilisateur pour qu'il vote après la date butoir ?) ;
  • le risque de porter préjudice (par exemple, est-il très probable que la diffusion du contenu entraîne un préjudice physique imminent ?).

Les contenus trompeurs dangereux sont souvent hyperlocalisés, ciblant des marchés spécifiques, des langues et des populations particulièrement à risque. Pour lutter contre cela, nous tirons parti de l'expertise du marché local pour nous assurer de rester à l'affût des tendances émergentes susceptibles de présenter un risque grave de porter préjudice et de faire évoluer ces connaissances humaines à l'aide d'outils d'apprentissage automatique. Cette approche est qualifiée de « human-in-the-loop » (avec intervention humaine).

Nous reconnaissons que ce type de contenu peut être plus répandu durant les périodes d'incertitude et d'instabilité, lorsque les informations fiables peuvent être rares. C'est la raison pour laquelle nous pouvons également prendre un certain nombre de mesures concernant le contenu pour aider à limiter la propagation de contenus potentiellement abusifs durant des événements sensibles, lorsque le risque de contenus dangereux entraînant de la violence dans la vie réelle est plus prononcé.

Par exemple, nous pouvons restreindre les chances de découverte du contenu dans les recommandations, inclure une mise en garde concernant le contenu ou choisir de le supprimer de la plateforme. Nous pouvons également faire apparaître du contenu de sources fiables pour nous assurer que nos utilisateurs ont accès à des informations précises et fiables, comme des liens vers des ressources officielles liées au vote, qui sont développées et gérées par des commissions électorales.

Nous optimisons en permanence nos règles et nos consignes de révision sur la base des contributions de nos propres équipes Spotify, de parties prenantes externes et de nos partenaires au sein du Spotify Safety Advisory Council.

Pour en savoir plus sur notre travail en matière de sécurité, cliquez ici et pour consulter nos conseils pour les créateurs durant les dernières élections, cliquez ici.