Segurança e Centro de privacidade

Nossa abordagem para conteúdo perigoso e enganoso

As equipes do Spotify trabalham incansavelmente para criar uma experiência segura e agradável para criadores, ouvintes e anunciantes. Embora a maioria do conteúdo em nossa plataforma esteja em conformidade com as políticas e a maior parte do tempo de audição seja dedicada a conteúdo licenciado, ocasionalmente, indivíduos mal-intencionados tentam estragar a experiência compartilhando informações enganosas e/ou manipuladas. Quando identificamos conteúdo que viola as Regras da plataforma Spotify, agimos prontamente para tomar as medidas necessárias. Continue lendo para saber mais sobre as táticas que usamos para manter o Spotify livre de conteúdos nocivos.

O conteúdo enganoso pode assumir várias formas, desde rumores inofensivos até campanhas direcionadas graves, projetadas para espalhar medo e prejudicar comunidades. Em um mundo em constante mudança, essas tendências evoluem rapidamente e aproveitamos a experiência de nossas equipes internas e parceiros externos para entender melhor esses tipos de manipulação.

Em muitos casos, essas narrativas maliciosas podem ser compartilhadas por alguém que talvez não saiba que são falsas ou enganosas. E embora algumas mentiras não sejam perigosas ("meu cachorro é o mais inteligente do mundo"), outros exemplos graves claramente são ("câncer é uma farsa"). O termo "desinformação" muitas vezes é usado para descrever vários tipos de informações manipuladas e consiste em conteúdo deliberadamente compartilhado com o objetivo de gerar dúvidas sobre conteúdos autênticos.

Conteúdo perigoso e enganoso é sutil e complexo, exigindo uma avaliação cuidadosa. Acreditamos que abordar esses tipos de violações usando várias categorias de políticas nos permite ser mais eficazes e precisos em nossas decisões.

Por exemplo, nas nossas Políticas de conteúdo perigoso, deixamos claro que não permitimos conteúdos que promovam informações médicas falsas ou enganosas que possam causar danos fora da internet ou ameaçar diretamente a saúde pública. Outro exemplo está em nossas Políticas de conteúdo enganoso, que estabelecem medidas contra conteúdos que tentam manipular ou interferir nos processos relacionados a eleições, incluindo aqueles que intimidam ou impedem eleitores de participarem de uma eleição.

Ao avaliar essas formas de irregularidade online, levamos em conta vários fatores, incluindo:

  • o conteúdo em si (por exemplo, o criador está fingindo ser outra pessoa?)
  • o contexto (por exemplo, é uma reportagem sobre uma narrativa perigosa que está se espalhando ou está apoiando a própria narrativa?)
  • a motivação (por exemplo, o criador está tentando enganar um usuário para votar após o prazo?)
  • o risco de dano (por exemplo, há uma alta probabilidade de que a disseminação da narrativa resulte em danos físicos iminentes?)

A enganação perigosa muitas vezes é hiperlocalizada, visando mercados específicos, idiomas e populações vulneráveis. Para lidar com isso, utilizamos a expertise do mercado local para garantir que estejamos atentos a tendências emergentes que possam representar um sério risco de dano e ampliamos esse conhecimento humano com classificadores de machine learning. Essa abordagem é conhecida como "humano no loop".

Reconhecemos que esse tipo de conteúdo tende a ser mais comum em tempos de incerteza e volatilidade, quando há menos informações confiáveis. Por isso, podemos tomar várias ações para ajudar a limitar a disseminação de conteúdos potencialmente abusivos durante eventos delicados, quando há um risco maior de narrativas prejudiciais causarem violência fora da internet.

Por exemplo, podemos restringir a visibilidade do conteúdo nas recomendações, incluir um aviso ou removê-lo da plataforma. Também podemos divulgar conteúdo de fontes confiáveis para garantir que nossos usuários tenham acesso a informações precisas e de confiança, como links para recursos oficiais relacionados a eleições, desenvolvidos e mantidos por comissões eleitorais.

Aprimoramos constantemente nossas políticas e orientações para revisores com base nas contribuições de nossas equipes internas, partes interessadas externas e parceiros do Conselho Consultivo de Segurança do Spotify.

Saiba mais sobre nosso trabalho de segurança aqui e veja nossas orientações para criadores em eleições anteriores aqui.