Екипите на Spotify работят непрестанно, за да създадат безопасно и приятно изживяване за нашите създатели, слушатели и рекламодатели. Въпреки че по‑голямата част от съдържанието в нашата платформа отговаря на правилата и по‑голямата част от времето за слушане е прекарана в лицензирано съдържание, злонамерени лица може понякога да се опитат да развалят изживяването, като споделят подвеждаща и/или манипулирана информация. Когато идентифицираме съдържание, което нарушава нашите Правила на платформата, ние действаме навременно, за да предприемем подходящи действия. Четете по‑нататък, за да разберете повече за стратегиите, които използваме, за да пазим Spotify от вреди.
Подвеждащото съдържание може да изглежда по много различни начини – от безобидни слухове до много сериозни, насочени кампании, предназначени да разпространяват страх и да вредят на определени общности. В един променящ се свят тези тенденции бързо се развиват и ние използваме експертния опит на нашите вътрешни екипи и външни партньори, за да разбираме по‑добре тези прояви на манипулация.
В много случаи такъв тип вредни възгледи могат да бъдат споделени от някой, който може да не знае, че са грешни или подвеждащи. И макар някои неверни твърдения да не са опасни („моето куче е най‑умното на света“), съществуват и други примери, които със сигурност са („ракът е измама“). Терминът „погрешна информация“ често се използва, за да опише различни видове манипулативна информация, включително дезинформация – съдържание, което умишлено се споделя от злонамерени лица, за да се посее съмнение върху автентично съдържание.
Опасното и подвеждащото съдържание имат много нюанси и са комплексни, затова изискват сериозна и задълбочена преценка. Вярваме, че предвиждането на такъв тип нарушения чрез множество категории в нашите правила ни позволява да сме по‑ефективни и точни в нашите решения.
Например в рамките на нашите Правила за опасното съдържание ние посочваме ясно, че не разрешаваме съдържание, разпространяващо грешна или подвеждаща медицинска информация, която може да навреди офлайн или да представлява директна заплаха за общественото здраве. Друг пример са нашите Правила за подвеждащо съдържание, в които се посочва, че ние предприемаме действия спрямо съдържание, което има за цел да манипулира или да се намесва в процеса, свързан с изборите, включително такова съдържание, което сплашва или притеснява гласоподавателите да участват в избори.
Когато оценяваме тези форми на онлайн тормоз, ние вземаме множество фактори предвид, включително:
Опасните измами често са свръхлокализирани, насочени към конкретни държави, езици и определени рискови групи от населението. За да се справим с това, ние използваме експертен опит на местно ниво, за да се уверим, че следим отблизо новопоявяващите се тенденции, които може да представляват сериозен риск от вреда, и прилагаме това човешко знание в по‑голям мащаб, като използваме класификатори за машинно обучение. Този подход е познат като „човек в цикъла“.
Разбираме, че такъв тип съдържание може да се среща по‑често в периоди на несигурност и промени, когато авторитетната информация може да е оскъдна. Поради тази причина е възможно да предприемем редица действия спрямо съдържанието, за да ограничим разпространението на съдържание на насилие по време на събития с чувствителен характер, когато съществува по‑изразен риск от вредни възгледи, водещи до насилие офлайн.
Например може да ограничим откриваемостта на съдържанието в препоръките, да включим предупреждение със съвет относно съдържанието или да изберем да го премахнем от платформата. Може също така да покажем съдържание от авторитетни източници, за да се уверим, че потребителите ни имат достъп до точна и достоверна информация, като например връзки към официални ресурси относно изборите, разработени и поддържани от избирателните комисии.
Ние непрекъснато преработваме правилата и насоките си за преглеждане на съдържание – въз основа на приноса на нашите вътрешни екипи в Spotify, външните заинтересовани лица и партньорите ни от Консултативния съвет за безопасност на Spotify.
Можете да прочетете повече за работата ни в посока безопасност тук и да видите насоките ни за създатели по време на изминалите избори тук.