حفاظت اور پرائیویسی سینٹر

خطرناک اور گمراہ کن مواد کے لیے ہماری حکمت عملی

Spotify ٹیمیں ہمارے تخلیق کاروں، سامعین اور مشتہرین کے لیے ایک محفوظ اور پُر لطف تجربہ بنانے کے لیے ہمہ وقت کام کرتی ہیں۔ اگرچہ ہمارے پلیٹ فارم پر زیادہ تر مواد پالیسی کے مطابق ہے اور زیادہ تر سننے کا وقت لائسنس یافتہ مواد پر صرف ہوتا ہے، لیکن مشتبہ عناصر کبھی کبھار فریب اور/یا ہیرا پھیری والی معلومات کو شیئر کرکے تجربے کو خراب کرنے کی کوشش کرتے ہیں۔ جب ہم ایسے مواد کی نشاندہی کرتے ہیں جو ہمارے پلیٹ فارم کے قواعد و ضوابط کی خلاف ورزی کرتا ہے، تو ہم مناسب کارروائی کرنے کے لیے فوری طور پر اقدامات اٹھاتے ہیں۔ ان تدبیرات کے بارے میں مزید جاننے کے لیے پڑھیں جو ہم Spotify کو نقصان سے بچانے کے لیے استعمال کرتے ہیں۔

گمراہ کن مواد بہت سی شکلوں میں ظاہر ہو سکتا ہے، جس میں بے ضرر افواہوں سے لے کر زیادہ سنگین، ہدفی مہمات شامل ہیں جنہیں کمیونٹیز میں خوف اور نقصان پہنچانے کے لیے ڈیزائن کیا گیا ہے۔ بدلتی ہوئی دنیا میں یہ ٹرینڈز تیزی سے ارتقائی مراحل طے کرتے ہیں اور ہم اس قسم کی ہیرا پھیری کو بہتر طور پر سمجھنے کے لیے اپنی اندرونی ٹیموں اور بیرونی شراکت داروں کی مہارت سے فائدہ اٹھاتے ہیں۔

بہت سی صورتوں میں، اس قسم کی بدنیتی پر مبنی بیانیے کسی ایسے شخص کی جانب سے شیئر کیے جا سکتے ہیں جو نہیں جانتے کہ وہ غلط یا گمراہ کن ہیں۔ اور جب کہ کچھ جھوٹ خطرناک نہیں ہوتے ہیں ("میرا کتا دنیا کا سب سے ہوشیار ہے")، دیگر شدید مثالیں واضح طور پر جھوٹی ہوتی ہیں ("کینسر ایک دھوکہ ہے")۔ 'غلط معلومات' کی اصطلاح اکثر متعدد قسم کی ہیرا پھیری کی گئی معلومات کو بیان کرنے کے لیے استعمال کی جاتی ہے، جس میں گمراہ کن معلومات شامل ہیں، جو کہ مستند مواد پر شک پیدا کرنے کے لیے بدنیتی پر مبنی اداکاروں کے ذریعے جان بوجھ کر شیئر کیا جاتا ہے۔

خطرناک اور دھوکہ دہی والا مواد نازک اور پیچیدہ ہوتا ہے اور نہایت غور و فکر کے ساتھ اس کا جائزہ درکار ہوتا ہے۔ ہمیں یقین ہے کہ پالیسی کے متعدد زمروں کے ذریعے اس قسم کی خلاف ورزیوں کو حل کرنے سے ہمیں اپنے فیصلوں میں زیادہ مؤثر اور درست ہونے کی اجازت ملتی ہے۔

مثال کے طور پر، ہماری خطرناک مواد کی پالیسیوں میں، ہم یہ واضح کرتے ہیں کہ ہم غلط یا گمراہ کن طبی معلومات کی تشہیر کرنے والے ایسے مواد کی اجازت نہیں دیتے جو آف لائن نقصان کا سبب بن سکتا ہے یا جس سے صحت عامہ کو براہ راست خطرہ لاحق ہو سکتا ہے۔ ایک اور مثال ہماری گمراہ کن مواد کی پالیسیوں میں ہے، جو اس بات کا خاکہ پیش کرتی ہے کہ ہم انتخاب سے متعلقہ عمل میں ہیرا پھیری یا مداخلت کرنے کی کوشش کرنے والے مواد کے خلاف اقدامات کریں، بشمول وہ مواد جو ووٹروں کو انتخاب میں حصہ لینے سے ڈرانے دھمکانے یا دباؤ ڈالنے کی کوشش کرتا ہے۔

آن لائن بد عنوانی کی ان صورتوں کا اندازہ کرتے ہوئے، ہم متعدد عوامل کو زیر غور لاتے ہیں، جس میں شامل ہیں:

  • مواد کا اصل جزو (مثال کے طور پر، کیا یہ تخلیق کار کسی اور شخص کی نقالی کر رہا ہے؟)
  • سیاق و سباق (مثال کے طور پر، کیا یہ کسی خطرناک بیانیے کے بارے میں خبر کی رپورٹ ہے جو پھیل رہی ہے، یا یہ خود بیانیے کی تصدیق کر رہی ہے؟)
  • ترغیب (مثال کے طور پر، کیا تخلیق کار کسی صارف کو آخری تاریخ گزر جانے کے بعد ووٹ دینے کے لیے دھوکہ دینے کی کوشش کر رہا ہے؟)
  • نقصان کا خطرہ (مثال کے طور پر، کیا اس بات کا قوی امکان ہے کہ بیانیے کے پھیلاؤ کے نتیجے میں فوری طور پر جسمانی نقصان پہنچے گا؟)

خطرناک دھوکہ اکثر انتہائی مقامی، مخصوص مارکیٹس کو ٹارگٹ کرتے ہوئے، زبانوں اور خاص طور پر خطرے سے دوچار آبادیوں میں ہوتا ہے۔ اس سے نمٹنے کے لیے، ہم مقامی مارکیٹ کی مہارت سے فائدہ اٹھاتے ہیں تاکہ اس بات کو یقینی بنانے میں مدد مل سکے کہ ہم ابھرتے ہوئے ٹرینڈز کے قریب رہیں جو نقصان کا سنگین خطرہ پیش کر سکتے ہیں اور مشین لرننگ کے ترتیب کاروں کا استعمال کرتے ہوئے اس انسانی علم کی پیمائش کر سکتے ہیں۔ اس نقطہ نظر کو "لوپ میں انسان" کہا جاتا ہے۔

ہم تسلیم کرتے ہیں کہ اس قسم کا مواد غیر یقینی صورتحال اور اتار چڑھاؤ کے ادوار کے دوران زیادہ عام ہو سکتا ہے، جب مستند معلومات کی کمی ہو۔ اس وجہ سے، ہم حساس واقعات کے دوران ممکنہ طور پر بدسلوکی والے مواد کے پھیلاؤ کو محدود کرنے میں مدد کے لیے متعدد مواد کی کارروائیاں بھی کر سکتے ہیں جب آف لائن تشدد کا باعث بننے والی نقصان دہ بیانیوں کا زیادہ واضح خطرہ موجود ہو۔

مثال کے طور پر، ہم تجاویز میں مواد کی دریافت کو محدود کر سکتے ہیں، مواد سے متعلق مشاورتی انتباہ شامل کر سکتے ہیں، یا اسے پلیٹ فارم سے ہٹانے کا انتخاب کر سکتے ہیں۔ ہم مستند ذرائع سے مواد کو بھی منظر عام پر لا سکتے ہیں تاکہ یہ یقینی بنایا جا سکے کہ ہمارے صارفین کو درست اور بھروسہ مند معلومات تک رسائی حاصل ہے، جیسے کہ الیکشن کمیشنز کی جانب سے تیار کردہ اور دیکھ بھال کیے جانے والے سرکاری ووٹنگ سے متعلق وسائل کے لنکس۔

ہم اپنی Spotify ٹیموں، بیرونی اسٹیک ہولڈرز، اور Spotify سیفٹی ایڈوائزری کونسل میں اپنے شراکت داروں کی جانب سے آنے والی معلومات کی بنیاد پر اپنی پالیسیوں اور جائزہ لینے والوں کی رہنمائی کا مسلسل اعادہ کرتے ہیں۔

آپ یہاں ہمارے حفاظتی کام کے بارے میں مزید پڑھ سکتے ہیں اور یہاں گزشتہ انتخابات کے دوران تخلیق کاروں کے لیے ہماری رہنمائی ملاحظہ کر سکتے ہیں۔