מרכז הבטיחות והפרטיות

הגישה שלנו בנוגע לתוכן מסוכן ומטעה

הצוותים של Spotify פועלים סביב השעון כדי ליצור חוויה בטוחה ומהנה עבור היוצרים, המאזינים והמפרסמים שלנו. למרות שמרבית התוכן בפלטפורמה שלנו עומד בדרישות המדיניות ורוב זמן ההאזנה מוקדש לתוכן מורשה, עדיין נעשים מדי פעם ניסיונות מצד גורמים זדוניים לקלקל את החוויה ולשתף מידע מטעה או מידע שעבר מניפולציה. כשאנחנו מזהים תוכן שמפר את כללי הפלטפורמה שלנו, אנחנו פועלים מייד ונוקטים בפעולה המתאימה. המשיכו לקרוא כדי ללמוד על הטקטיקות שאנחנו נוקטים כדי לשמור על Spotify נקייה מפגע.

תוכן שכולל מידע מטעה יכול להופיע בדרכים שונות, החל משמועות בלתי מזיקות ועד קמפיינים מטורגטים חמורים מאוד שמטרתם להפיץ פחד ולפגוע בקהילות. המגמות האלה מתפתחות במהירות בעולם המשתנה של היום ואנחנו מנצלים לטובתנו את המומחיות של הצוותים הפנימיים ושל השותפים החיצוניים שלנו כדי להבין טוב יותר את סוגי המניפולציות האלה.

במקרים רבים, יכול להיות שמי שמשתף סוג כזה של נרטיב זדוני לא יודע שהוא שגוי, שקרי או מטעה. בעוד שחלק מהתרמיות לא מסוכנות ("הכלב שלי הכי חכם בעולם"), דוגמאות שערורייתיות אחרות כן מהוות סיכון ("סרטן זו הונאה"). במונח 'מידע מוטעה' נעשה שימוש תכוף כדי לתאר כמה סוגים של מידע שעבר מניפולציה, כולל דיסאינפורמציה, שהיא הפצה מכוונת של תוכן על ידי גורמים זדוניים במטרה להטיל ספק בתוכן אותנטי.

תוכן מסוכן ומטעה כולל מידע דו-משמעי ומורכב שלצורך הבנתו צריך לבצע הערכה מושכלת. אנחנו חושבים שההתייחסות שלנו לסוגי הפרות כאלה באמצעות קטגוריות מרובות בסעיפי המדיניות מאפשרת לנו להגיע להחלטות באופן יעיל ומדויק יותר.

לדוגמה, במדיניות בנושא תוכן מסוכן, אנחנו מבהירים שאנחנו אוסרים על תוכן שמקדם מידע רפואי שקרי או מטעה שעלול לגרום לנזק מציאותי או להוות סיכון ישיר לבריאות הציבור. דוגמה נוספת מופיעה במדיניות שלנו לתוכן מטעה, שבה מצוין שאנחנו נוקטים פעולה לגבי תוכן שמנסה להערים על תהליכים שקשורים לבחירות או להתערב בהן, כולל תוכן שמאיים על בוחרים או מניא אותם מלהשתתף בבחירות.

אנחנו לוקחים בחשבון מספר גורמים כשאנחנו מעריכים את הסוגים האלה של התעללות אונליין. אנחנו מתייחסים בין השאר להיבטים הבאים:

  • מהות התוכן (למשל, האם היוצר מתחזה למישהו אחר?)
  • ההקשר (לדוגמה, האם מדובר בדיווח חדשותי על נרטיב מסוכן שזוכה לתפוצה רחבה או שהוא תומך בנרטיב עצמו?)
  • המניע (למשל, האם היוצר מנסה להערים על המשתמש כדי שיצביע אחרי המועד האחרון?)
  • הסיכון בגרימת נזק (למשל, האם יש סבירות גבוהה שהפצת הנרטיב תסתכם בפגיעה גופנית ממשית ומיידית?)

הטעיה מסוכנת היא לעתים קרובות מקומית מאוד, והיא מטרגטת שפות ושווקים ספציפיים ואוכלוסיות שנמצאות בסיכון ייחודי. כדי להתייחס לבעיה הזו, אנחנו משתמשים במומחיות שספציפית לשוק המקומי כדי להבטיח שנהיה מודעים למגמות מתפתחות שמהוות סיכון חמור לנזק פוטנציאלי ולהרחיב את הידע האנושי הזה באמצעות מסווגים שמבוססים על למידת מכונה. הגישה הזו מוכרת בשם "אדם בחוג הבקרה".

אנחנו מזהים שסוג כזה של תוכן עשוי להיות נפוץ יותר במהלך תקופות של אי ודאות ואי יציבות, כשמידע ממקורות מוסמכים ומהימנים הוא מועט. לכן אנחנו עשויים לנקוט כמה פעולות על התוכן כדי להגביל את ההפצה של תוכן שיש לו פוטנציאל להיות פוגעני בתקופות רגישות כשקיים סיכון בולט של נרטיבים מזיקים שמובילים לאלימות במציאות.

לדוגמה, אנחנו עשויים להגביל את יכולת הגילוי של התוכן בהמלצות, לכלול אזהרה בנוגע לתוכן או לבחור להסיר אותו מהפלטפורמה. אנחנו גם עשויים להעלות תוכן ממקורות מוסמכים כדי להבטיח שלמשתמשים שלנו תהיה גישה למידע מדויק ומהימן, כמו קישורים למקורות רשמיים שקשורים לבחירות שמועלה ומתוחזק על ידי וועדות בחירות.

אנחנו כל הזמן משפרים את תקנוני המדיניות ואת ההנחיות לעורכים שלנו על סמך קלט שאנחנו מקבלים מהצוותים הפנימיים שלנו ב-Spotify, מבעלי תפקידים חיצוניים ומהשותפים שלנו ב-Spotify Safety Advisory Council.

מידע נוסף על פעולות האבטחה שלנו זמין כאן וההנחיות שלנו ליוצרים במהלך מערכות בחירות קודמות זמינות כאן.