Centro de seguridad y privacidad

Nuestro enfoque ante contenido peligroso o engañoso

Los equipos de Spotify trabajan las 24 horas para que nuestros creadores, oyentes y anunciantes disfruten de una experiencia segura y positiva. Aunque la mayoría del contenido de nuestra plataforma cumple las políticas y la mayor parte del tiempo de escucha se dedica a contenido con licencia, algunos usuarios malintencionados podrían intentar arruinar la experiencia compartiendo información engañosa o manipulada. Cuando detectamos contenido que infringe las normas de la plataforma, tomamos las medidas necesarias sin demora. Sigue leyendo para obtener más información sobre las tácticas que utilizamos para hacer que Spotify siga siendo un espacio seguro.

El contenido engañoso puede adoptar muchas formas, desde rumores inofensivos hasta campañas muy serias con objetivos específicos diseñadas para sembrar el miedo entre las comunidades y hacerles daño. En un mundo en constante cambio, estas tendencias evolucionan rápidamente, por eso recurrimos a la experiencia de nuestros equipos internos y socios externos para entender mejor estos tipos de manipulación.

En muchos casos, es posible que alguien comparta este contenido malicioso sin ser consciente de que es falso o engañoso. Y aunque algunas afirmaciones falsas no son peligrosas (como decir que tu perro es el más inteligente del mundo), muchas otras claramente sí lo son (por ejemplo, decir que el cáncer no existe). El término "información errónea" a menudo se usa para describir diferentes tipos de información manipulada, incluida la desinformación, que es contenido que usuarios malintencionados comparten deliberadamente para sembrar dudas sobre contenido auténtico.

El contenido peligroso y engañoso tiene matices y es complejo, por lo que requiere una evaluación cuidadosa. Creemos que abordar este tipo de infracciones mediante distintas categorías de políticas nos permite tomar decisiones más efectivas y precisas.

Por ejemplo, en nuestras políticas de contenido peligroso, dejamos claro que no permitimos ningún tipo de contenido que promocione información médica falsa o engañosa que pueda causar daños en el mundo real o ser una amenaza directa contra la salud pública. Asimismo, en nuestras políticas de contenido engañoso, se indica que tomamos medidas contra el contenido que intente interferir en los procesos relacionados con las elecciones o manipularlos, incluido aquel que intimide a los votantes o les impida participar en las elecciones.

Al evaluar dichos usos indebidos en línea, tenemos en cuenta diversos factores, como los siguientes:

  • el fondo del contenido (por ejemplo, si el creador se está haciendo pasar por otra persona);
  • el contexto (por ejemplo, si se trata de una noticia sobre un discurso peligroso que está empezando a extenderse o si defiende el discurso en sí);
  • la motivación (por ejemplo, si el creador está intentando engañar al usuario para que vote después de una fecha límite);
  • el riesgo de daño (por ejemplo, si existe una alta probabilidad de que la difusión del discurso cause un daño físico inminente).

Los engaños peligrosos suelen ser hiperlocalizados y estar dirigidos a mercados, idiomas y poblaciones en riesgo concretos. Para abordarlos, aplicamos nuestros conocimientos sobre el mercado local para asegurarnos de seguir de cerca las tendencias emergentes que puedan presentar un riesgo grave de daño e intentamos ampliar estos conocimientos humanos mediante clasificadores de aprendizaje automático. Este enfoque se conoce como "the human in the loop".

Sabemos que este tipo de contenido puede ser más frecuente durante periodos de incertidumbre y volatilidad, en los que la información de fuentes fiables podría ser escasa. Por este motivo, también es posible que tomemos distintas medidas contra el contenido para intentar limitar la difusión de contenido potencialmente abusivo durante momentos delicados, ya que existe un mayor riesgo de que surjan discursos perjudiciales que generen violencia fuera de Internet.

Por ejemplo, podríamos restringir la visibilidad del contenido en las recomendaciones, incluir una advertencia sobre él u optar por eliminarlo de la plataforma. También es posible que mostremos contenido de fuentes de confianza para que nuestros usuarios puedan consultar información fiable y precisa, como enlaces a recursos oficiales sobre las elecciones elaborados y actualizados por las comisiones electorales.

Retocamos continuamente nuestras políticas y las pautas que proporcionamos a los revisores en función de los comentarios que recibimos del equipo interno de Spotify, partes interesadas externas y nuestros socios del Spotify Safety Advisory Council.

Puedes obtener más información sobre nuestros esfuerzos en materia de seguridad aquí y consultar nuestra guía para creadores durante las últimas elecciones aquí.