Centre de confidentialité et de sécurité

Notre approche à l'égard du contenu dangereux et trompeur

Les équipes de Spotify travaillent jour et nuit pour créer une expérience sécuritaire et agréable pour nos créateurs et créatrices, nos auditeurs et auditrices et nos partenaires publicitaires. Bien que la majorité du contenu de notre plateforme soit conforme aux politiques et que la plupart du temps d'écoute soit consacré au contenu sous licence, les mauvais acteurs tentent parfois de gâcher l'expérience en partageant de l'information trompeuse ou manipulée. Lorsque nous identifions du contenu qui enfreint nos Règles de la plateforme, nous agissons rapidement pour prendre les mesures appropriées. Lisez la suite pour en savoir plus sur les tactiques que nous utilisons pour garder Spotify à l'abri du danger.

Le contenu trompeur peut prendre de nombreuses formes, allant de rumeurs anodines à des campagnes très graves et ciblées visant à répandre la peur et le mal dans les collectivités. Dans un monde qui ne cesse de changer, ces tendances évoluent rapidement et nous tirons parti de l'expertise de nos équipes internes et de nos partenaires externes pour mieux comprendre ces types de manipulation.

Dans bien des cas, ce genre de propos malveillants peut être partagé par quelqu'un qui ne sait pas que ces propos sont faux ou trompeurs. Et bien que certaines faussetés ne soient pas dangereuses (« mon chien est le plus intelligent du monde »), d'autres exemples flagrants le sont (« le cancer n'existe pas »). Le terme « mésinformation » est fréquemment utilisé pour décrire de multiples types d'information manipulée, y compris la désinformation, qui est un contenu partagé délibérément par des acteurs malveillants pour semer le doute sur le contenu authentique.

Le contenu dangereux et trompeur est nuancé et complexe et nécessite une évaluation approfondie. Nous croyons que le fait d'aborder ces types d'infractions au moyen de multiples catégories de politiques nous permet d'être plus efficaces et plus précis dans nos décisions.

Par exemple, dans nos politiques relatives au contenu dangereux, nous précisons clairement que nous n'autorisons pas le contenu faisant la promotion de renseignements médicaux faux ou trompeurs qui peuvent causer un préjudice hors ligne ou menacer directement la santé publique. Un autre exemple se trouve dans nos politiques relatives au contenu trompeur, qui indiquent que nous prenons des mesures à l'égard du contenu qui tente de manipuler ou d'entraver les processus liés aux élections, y compris celui qui intimide ou empêche l'électorat de participer à une élection.

Lorsque nous évaluons ces formes d'abus en ligne, nous tenons compte de plusieurs facteurs, notamment :

  • l'essence du contenu (par exemple, est-ce que le créateur ou la créatrice fait semblant d'être une autre personne?)
  • le contexte (par exemple s'agit-il d'un reportage sur une histoire dangereuse qui se répand, ou est-ce qu'il s'appuie sur les faits eux-mêmes?)
  • la motivation (par exemple, est-ce que le créateur ou la créatrice cherche à tromper une personne afin qu'elle tente de voter après la date limite?)
  • le risque de préjudice (par exemple, y a-t-il une forte chance que la propagation des faits entraîne des dommages physiques imminents?)

La tromperie dangereuse est souvent très localisée, ciblant des marchés, des langues et des populations à risque particuliers. Pour y remédier, nous tirons parti de l'expertise des marchés locaux afin de nous assurer de rester au fait des tendances émergentes qui peuvent présenter un risque sérieux de préjudice et d'étendre ces connaissances humaines à l'aide de classificateurs d'apprentissage automatique. Cette approche propose une « intervention humaine ».

Nous reconnaissons que ce type de contenu peut être plus répandu pendant les périodes d'incertitude et de volatilité, lorsque l'information faisant autorité peut être rare. Pour cette raison, nous pouvons également prendre un certain nombre de mesures sur le contenu pour aider à limiter la propagation de contenu potentiellement abusif lors d'événements sensibles lorsqu'il y a un risque plus prononcé de faits préjudiciables menant à de la violence hors ligne.

Par exemple, nous pouvons restreindre la visibilité du contenu dans les recommandations, inclure un avertissement de contenu ou choisir de le supprimer de la plateforme. Nous pouvons également trouver du contenu provenant de sources faisant autorité pour nous assurer que nos utilisateurs ont accès à des renseignements exacts et fiables, comme des liens vers des ressources officielles liées au vote élaborées et tenues à jour par les commissions électorales.

Nous améliorons continuellement nos politiques et nos conseils en fonction des commentaires de nos propres équipes Spotify, des intervenants externes et de nos partenaires sur Spotify Safety Advisory Council.

Vous pouvez en apprendre davantage sur notre travail de sécurité ici et consulter nos conseils aux créateurs et aux créatrices lors des élections précédentes ici.