As equipas do Spotify trabalham 24 horas por dia para criar uma experiência segura e agradável para os nossos criadores, ouvintes e anunciantes. Apesar de a maioria do conteúdo na nossa plataforma seguir as nossas políticas e os conteúdos licenciados agregarem a maioria do tempo de audição, ocasionalmente, há intervenientes nocivos que tentam estragar a experiência ao partilharem informação enganadora e/ou manipulada. Quando identificamos conteúdos que infrinjam as nossas Regras da plataforma, tomamos imediatamente as medidas adequadas. Continue a ler para saber mais sobre as estratégias que usamos para proteger o Spotify de efeitos prejudiciais.
Os conteúdos enganadores podem assumir muitas formas, de boatos inócuos a campanhas muito graves e direcionadas com o intuito de disseminar o medo e causar danos nas comunidades. Num mundo em constante mudança em que essas tendências evoluem rapidamente, combinamos a competência das nossas equipas internas e de parceiros externos para melhor compreender estes tipos de manipulação.
Em muitos casos, estes tipos de narrativas maliciosas podem ser partilhados por pessoas que talvez não saibam que são falsos ou enganosos. Apesar de algumas afirmações falsas não serem perigosas ("Tenho o cão mais inteligente do mundo."), há outros exemplos declaradamente nocivos ("O cancro é um embuste."). O termo "informação incorreta" é utilizado frequentemente para descrever vários tipos de informação manipulada, incluindo a desinformação, que se refere a conteúdos partilhados deliberadamente por intervenientes mal-intencionados para pôr em causa conteúdos autênticos.
Os conteúdos perigosos e enganadores são multifacetados e complexos e exigem uma avaliação intensiva e profunda. Acreditamos que abordar estes tipos de infrações com base em várias categorias de políticas nos permite tomar decisões mais eficazes e precisas.
Por exemplo, no âmbito das nossas políticas de Conteúdos perigosos, deixamos bem claro que não permitimos conteúdos que promovam informações médicas falsas ou enganadoras que possam causar danos offline ou ameaçar diretamente a saúde pública.. Outro exemplo são as nossas políticas de Conteúdos enganadores, que indicam que tomamos medidas contra conteúdos que tentem manipular ou interferir em processos eleitorais, incluindo conteúdos que intimidem ou impeçam os eleitores de participar numa eleição.
Quando avaliamos estas formas de abuso online, temos em conta vários fatores, entre os quais:
O engano perigoso costuma ser hiperlocalizado e visa mercados e idiomas específicos, assim como determinadas populações em risco. Para dar resposta a este problema, utilizamos os conhecimentos dos mercados locais para nos ajudar a garantir que estamos a par das tendências emergentes que possam representar um sério risco de danos e ajustar este conhecimento humano com base em classificadores de aprendizagem automática. Esta abordagem é conhecida como "envolvimento humano".
Reconhecemos que este tipo de conteúdo pode ser mais predominante durante períodos de incerteza e volatilidade em que a informação oficial possa ser escassa. Por este motivo, podemos também tomar uma série de medidas de conteúdo para ajudar a limitar a disseminação de conteúdos potencialmente abusivos no contexto de acontecimentos delicados, quando existe um risco mais pronunciado de surgirem narrativas nocivas que conduzam a violência offline.
Por exemplo, podemos limitar a probabilidade de descoberta dos conteúdos nas recomendações, incluir avisos ou até optar por remover o conteúdo da plataforma. Podemos também divulgar conteúdos de fontes oficiais para assegurar que os nossos utilizadores têm acesso a informação precisa e de confiança, como ligações para recursos oficiais relativos a eleições desenvolvidos e mantidos por comissões eleitorais.
Aperfeiçoamos constantemente as nossas políticas e diretrizes de revisão com base nas contribuições das próprias equipas da Spotify, de partes interessadas externas e dos nossos parceiros no Spotify Safety Advisory Council (Conselho Consultivo de Segurança da Spotify).
Pode ler mais sobre os nossos esforços de segurança aqui e aceder às nossas orientações para criadores em eleições anteriores aqui.