Seguridad y Centro de Privacidad

Nuestro enfoque ante el contenido peligroso y engañoso

Los equipos de Spotify trabajan las 24 horas para crear una experiencia segura y agradable para nuestros creadores, oyentes y anunciantes. Si bien la mayor parte del contenido de nuestra plataforma cumple con las políticas y la mayor cantidad de tiempo de reproducción proviene de contenido con licencia, hay ocasiones en las que las personas mal intencionadas intentan arruinar la experiencia compartiendo información engañosa o manipulada. Cuando identificamos contenido que infringe nuestras Reglas de la Plataforma, tomamos las medidas correspondientes de inmediato. Sigue leyendo para obtener más información sobre las tácticas que usamos para evitar daños en Spotify.

El contenido engañoso puede adoptar muchas formas, desde rumores inofensivos hasta campañas muy serias y dirigidas diseñadas para difundir miedo y daño entre las comunidades. En un mundo que está en constante cambio, estas tendencias evolucionan con rapidez, y aprovechamos la experiencia de nuestros equipos internos y socios externos para entender mejor estos tipos de manipulación.

En muchos casos, las personas comparten narrativas maliciosas sin saber si son falsas o engañosas. Y aunque algunas falsedades no son peligrosas ("mi perro es el más inteligente del mundo"), otros ejemplos atroces ejemplifican que sí lo son ("el cáncer es un engaño"). El término "desinformación" se emplea con frecuencia para describir muchos tipos de información manipulada, incluida la información incorrecta, que es contenido que personas mal intencionadas comparten a propósito para sembrar dudas sobre el contenido auténtico.

El contenido peligroso y engañoso tiene matices y es complejo, por lo que requiere una evaluación muy cuidadosa. Creemos que abordar este tipo de infracciones a través de varias categorías en nuestras políticas nos permite tomar decisiones con mayor efectividad y precisión.

Por ejemplo, dentro de nuestras políticas de Contenido Peligroso, dejamos en claro que no permitimos contenido que promueva información médica falsa o engañosa que pueda causar daño en la vida real o amenazar directamente la salud pública. Otro ejemplo se encuentra dentro de nuestras políticas de Contenido Engañoso, que describen que tomamos medidas sobre el contenido que intenta manipular o interferir con procesos relacionados con las elecciones, incluido el que intimida o impide que los votantes participen en una elección.

Al evaluar estas formas de abuso en línea, tomamos en cuenta varios factores, entre ellos los siguientes:

  • la esencia del contenido (por ejemplo, ¿el creador se hace pasar por otra persona?)
  • el contexto (por ejemplo, ¿es una noticia sobre una narrativa peligrosa que se está difundiendo o respalda esa narrativa?)
  • el motivo (por ejemplo, ¿el creador está intentando engañar a un usuario para que vote después de la fecha límite?)
  • el riesgo de daño (por ejemplo, ¿hay una alta probabilidad de que la difusión de la narrativa resulte en un daño físico inminente?)

El engaño peligroso suele estar hiperlocalizado y dirigirse a mercados, idiomas y grupos de personas específicos en riesgo. Para abordar esto, aprovechamos la experiencia del mercado local para garantizar que estamos cerca de las tendencias emergentes que pueden representar un riesgo grave de daño y para escalar este conocimiento humano usando clasificadores de aprendizaje automático. Este enfoque se conoce como "Human-in-the-Loop" (humano en el circuito).

Reconocemos que este tipo de contenido puede ser más frecuente durante períodos de incertidumbre y volatilidad, cuando la información autorizada puede escasear. Por esta razón, también podemos tomar una serie de medidas sobre el contenido para ayudar a limitar la difusión de contenido potencialmente abusivo durante eventos sensibles cuando existe un riesgo mayor de narrativas dañinas que generen violencia en la vida real.

Por ejemplo, podemos restringir la visibilidad del contenido en las recomendaciones, incluir una advertencia de contenido o eliminarlo de la plataforma. También podemos mostrar contenido de fuentes autorizadas para garantizar que nuestros usuarios tengan acceso a información precisa y confiable, como enlaces a recursos oficiales relacionados con la votación que estén desarrollados y mantenidos por las comisiones electorales.

Repetimos nuestras políticas y la orientación de los revisores de forma continua en función de los aportes de nuestros propios equipos de Spotify, partes interesadas externas y nuestros socios en el Spotify Safety Advisory Council.

Puedes leer más sobre nuestro trabajo de seguridad aquí y ver nuestras pautas para creadores durante elecciones pasadas aquí.