مركز الخصوصية والأمان

نهجنا في التعامل مع المحتوى الاحتيالي والذي يتضمن أفكاراً وأفعالاً خطرة

تعمل فِرق Spotify على مدار الساعة لتوفير تجربة آمنة وممتعة لصانعي المحتوى والمستمعين والمعلنين. على الرغم من أن أغلب المحتوى المتاح على منصتنا يمتثل للسياسات، وأن المحتوى المرخَّص يحظى بأغلب مدد الاستماع، فإن العناصر الفاسدة تحاول أحياناً تشويه تلك التجربة من خلال مشاركة معلومات مضلِّلة و/أو تم التلاعب بها. عند تحديد المحتوى الذي يخالف قواعد منصة Spotify، نتحرك على الفور لاتخاذ الإجراء المناسب. يرجى متابعة القراءة لمعرفة المزيد عن الأساليب التي نستخدمها للحفاظ على خلو Spotify من كل أشكال الضرر.

يمكن أن يتخذ المحتوى الاحتيالي أشكالاً عديدة، بدءاً من الشائعات التافهة إلى الحملات الموجَّهة شديدة الخطورة التي تهدف إلى نشر الخوف والأذى وسط المجتمعات. وتتغير هذه التوجهات سريعاً مع تغير المشهد العالمي، لذا نستفيد من خبرات فرقنا الداخلية وشركائنا الخارجيين لفهم هذه الأنواع من التلاعب بشكل أفضل.

في الكثير من الحالات، قد تتم مشاركة هذه الأنواع من القصص الضارة من جانب أشخاص قد لا يعلمون أنها كاذبة أو مضلِّلة. وفي حين أن بعض الأكاذيب لا تشكل خطراً (مثل "كلبي هو الأذكى في العالم")، فمن المؤكد أن هناك أكاذيب أخرى شنيعة تشكل خطراً واضحاً (مثل "السرطان خدعة"). يتم استخدام مصطلح "التضليل" كثيراً لوصف أنواع متعددة من المعلومات التي يتم التلاعب بها، ويشمل ذلك المعلومات الزائفة التي تتمثل في المحتوى الذي تشاركه العناصر الفاسدة عمداً لإثارة الشكوك في المحتوى الحقيقي.

يتسم المحتوى الاحتيالي والذي يتضمن أفعالاً وأفكاراً خطرة بالتفاصيل الغامضة والمعقدة، لذا يتطلب قدراً كبيراً من التعمق والدقة في التقييم. ونعتقد أن التعامل مع هذه الأنواع من الانتهاكات باتباع فئات السياسات المتعددة يتيح لنا اتخاذ قرارات فعالة ودقيقة.

على سبيل المثال، ضمن بنود سياسات المحتوى الخطِر، نبيِّن بوضوح أننا لا نسمح بنشر المحتوى الذي يروِّج لمعلومات طبية كاذبة أو مضلِّلة قد تتسبب في إلحاق ضرر فعلي خارج نطاق الإنترنت، أو تهدد الصحة العامة بشكل مباشر. ويتضح مثال آخر لهذا في سياسات المحتوى الاحتيالي التي تبيِّن أننا نتخذ إجراءات للتعامل مع المحتوى الذي يتضمن محاولات للتلاعب بالعمليات المتعلقة بالانتخابات أو التدخل فيها، ويشمل ذلك محاولات تخويف الناخبين أو منعهم من المشاركة في العملية الانتخابية.

عند تقييم هذه الأشكال من إساءة الاستخدام عبر الإنترنت، نضع في اعتبارنا عدة عوامل منها:

  • مضمون المحتوى (على سبيل المثال، هل يتظاهر صانع المحتوى بأنه شخص آخر؟)
  • السياق (على سبيل المثال، هل هو تقرير إخباري يتناول موضوع انتشار إحدى القصص الخطرة، أم هو محتوى مؤيد للقصة نفسها؟)
  • الدافع (على سبيل المثال، هل يحاول صانع المحتوى خداع أحد المستخدمين للإدلاء بالصوت بعد الموعد النهائي؟)
  • خطر إلحاق الضرر (على سبيل المثال، هل يُحتمل أن يؤدي انتشار القصة إلى إيذاء جسدي وشيك؟)

غالباً ما يكون المحتوى الاحتيالي الخطِر ذا توجه محلي كبير، حيث يستهدف أسواقاً ولغات معينة وشعوباً معرضة للخطر على وجه الخصوص. للتصدي لهذه المخاطر، نستعين بخبراء في الأسواق المحلية لمساعدتنا في الاطلاع باستمرار على التوجهات المستجدة التي ربما تشكل خطر إلحاق الضرر بالآخرين، ونعمل أيضاً على توسيع نطاق هذه المعرفة البشرية باستخدام خوارزميات تصنيف تعلُّم الآلة. ويُعرف هذا الأسلوب بمصطلح "التوجيه البشري للآلة".

نحن ندرك أن هذا النوع من المحتوى يمكن أن يكون أكثر انتشاراً خلال فترات عدم الاستقرار والاضطرابات، عندما يصعب الحصول على معلومات رسمية موثوق بها. ولهذا، ربما نتخذ أيضاً بعض الإجراءات للحد من انتشار المحتوى الذي قد يكون مسيئاً أثناء الفعاليات المهمة والحساسة عندما يكون المشهد أكثر عرضة لخطر القصص الضارة التي تؤدي إلى العنف على أرض الواقع خارج إطار الإنترنت.

على سبيل المثال، قد نلجأ إلى تقييد إمكانية اكتشاف المحتوى في الاقتراحات، أو تضمين نبذة تحذيرية منه، أو اختياره لإزالته من المنصة. وقد نبرز أيضاً المحتوى الذي تقدمه المصادر الرسمية لضمان حصول المستخدمين على معلومات دقيقة وموثوق بها، مثل روابط لموارد رسمية متعلقة بالتصويت تقدِّمها وتديرها لجان الانتخابات.

نستمر في تكرار صياغة سياساتنا ووضع إرشادات للمدققين بناءً على آراء ومساهمات من فِرق العمل لدينا في Spotify، وأصحاب المصلحة التابعين لجهات خارجية، وشركائنا في Spotify Safety Advisory Council.

يمكنك قراءة المزيد عن جهود الحفاظ على الأمان هنا والاطلاع على إرشاداتنا لصانعي المحتوى خلال الانتخابات الماضية هنا.