Ασφάλεια & Κέντρο απορρήτου

Η προσέγγισή μας σε επικίνδυνο και παραπλανητικό περιεχόμενο

Οι ομάδες του Spotify καταβάλλουν διαρκείς προσπάθειες ώστε να δημιουργήσουν μια ασφαλή και ευχάριστη εμπειρία για τους δημιουργούς, τους ακροατές και τους διαφημιζομένους. Ενώ η πλειονότητα του περιεχομένου στην πλατφόρμα μας συμμορφώνεται με τις πολιτικές μας και ο περισσότερος χρόνος ακρόασης αφορά περιεχόμενο με άδεια χρήσης, κατά καιρούς κακόβουλα άτομα προσπαθούν να επηρεάσουν αρνητικά αυτή την εμπειρία, κοινοποιώντας παραπλανητικές ή παραποιημένες πληροφορίες. Όταν εντοπίζουμε περιεχόμενο που παραβιάζει τους Κανόνες πλατφόρμας Spotify, ενεργούμε αμέσως, για να λάβουμε τα κατάλληλα μέτρα. Συνέχισε να διαβάζεις, για να μάθεις περισσότερα σχετικά με τις τακτικές που χρησιμοποιούμε ώστε να προστατεύσουμε Spotify από κακόβουλες ενέργειες.

Το παραπλανητικό περιεχόμενο μπορεί να πάρει πολλές μορφές: από αβλαβείς φήμες έως πολύ σοβαρές, στοχευμένες καμπάνιες σχεδιασμένες να προκαλέσουν φόβο και ζημιά στις κοινότητες. Σε έναν κόσμο που αλλάζει διαρκώς, αυτές οι τάσεις εξελίσσονται γρήγορα. Αξιοποιούμε την τεχνογνωσία των εσωτερικών ομάδων μας και των εξωτερικών συνεργατών μας, για να κατανοήσουμε καλύτερα αυτά τα είδη χειραγώγησης.

Σε πολλές περιπτώσεις, τέτοιου είδους κακόβουλες πληροφορίες μπορεί να κοινοποιηθούν από άτομα που ίσως να μην γνωρίζουν ότι είναι ψευδείς ή παραπλανητικές. Και ενώ ορισμένες αναλήθειες δεν είναι επικίνδυνες («ο σκύλος μου είναι ο πιο έξυπνος στον κόσμο»), υπάρχουν εξωφρενικά παραδείγματα που είναι άκρως επικίνδυνα («δεν υπάρχει καρκίνος»). Ο όρος «παραπληροφόρηση» χρησιμοποιείται συχνά για να περιγράψει διαφορετικά είδη παραποιημένης πληροφορίας – τόσο τη μη εσκεμμένη διασπορά αναληθών ή εσφαλμένων πληροφοριών όσο και την σκόπιμη διασπορά περιεχομένου από κακόβουλα άτομα με στόχο να σπείρουν αμφιβολίες για κάποιο αυθεντικό περιεχόμενο.

Το επικίνδυνο και παραπλανητικό περιεχόμενο μπορεί να έχει πολλές διαφορετικές διαβαθμίσεις και είναι περίπλοκο, συνεπώς απαιτεί εξαιρετικά προσεκτική αξιολόγηση. Πιστεύουμε ότι μπορούμε να είμαστε πιο αποτελεσματικοί και ακριβείς στις αποφάσεις μας, αν αντιμετωπίσουμε τέτοιου είδους παραβιάσεις μέσα από πολλές διαφορετικές κατηγορίες πολιτικών.

Για παράδειγμα, στο πλαίσιο των πολιτικών για επικίνδυνο περιεχόμενο, καθιστούμε σαφές ότι δεν επιτρέπουμε περιεχόμενο που προωθεί ψευδείς ή παραπλανητικές ιατρικές πληροφορίες και μπορεί να προκαλέσει βλάβη στον πραγματικό κόσμο ή να απειλήσει άμεσα τη δημόσια υγεία. Ένα άλλο παράδειγμα αφορά τις πολιτικές μας για παραπλανητικό περιεχόμενο, οι οποίες περιγράφουν ότι ενεργούμε κατά περιεχομένου που επιχειρεί να χειραγωγήσει ή να παρέμβει σε εκλογικές διαδικασίες, συμπεριλαμβανομένου περιεχομένου που εκφοβίζει ή αποτρέπει ψηφοφόρους από τη συμμετοχή σε εκλογές.

Κατά την αξιολόγηση αυτών των μορφών διαδικτυακής κατάχρησης, λαμβάνουμε υπόψη πολλούς παράγοντες, όπως οι εξής:

  • η ουσία του περιεχομένου (για παράδειγμα: ο δημιουργός προσποιείται ότι είναι άλλο πρόσωπο;)
  • το πλαίσιο (για παράδειγμα: πρόκειται για αναφορά ειδήσεων σχετικά με μια επικίνδυνη τοποθέτηση που διαδίδεται ή υποστηρίζει την ίδια την τοποθέτηση;)
  • το κίνητρο (για παράδειγμα: ο δημιουργός προσπαθεί να ξεγελάσει έναν χρήστη, ώστε να πάει να ψηφίσει αφού λήξει η προθεσμία;)
  • ο κίνδυνος βλάβης (για παράδειγμα: υπάρχει μεγάλη πιθανότητα η διάδοση μιας θέσης να οδηγήσει σε επικείμενη σωματική βλάβη;)

Η επικίνδυνη παραπλάνηση είναι συχνά υπερτοπική και στοχεύει συγκεκριμένες αγορές και γλώσσες και συγκεκριμένους πληθυσμούς υψηλού κινδύνου. Για να την αντιμετωπίσουμε, αξιοποιούμε τεχνογνωσία σε επίπεδο τοπικής αγοράς, ώστε να εξασφαλίσουμε ότι παρακολουθούμε τις αναδυόμενες τάσεις που ενδέχεται να ενέχουν υψηλό κίνδυνο βλάβης και αναβαθμίζουμε αυτή την ανθρώπινη γνώση μέσω ταξινομητών μηχανικής μάθησης. Η συγκεκριμένη προσέγγιση είναι γνωστή ως «με άνθρωπο στον βρόχο» («the human in the loop»).

Αναγνωρίζουμε ότι αυτό το είδος περιεχομένου μπορεί να είναι πιο διαδεδομένο σε περιόδους αβεβαιότητας και αστάθειας, όταν οι έγκυρες πληροφορίες πιθανώς να είναι περιορισμένες. Για αυτόν τον λόγο, ενδέχεται επίσης να προβούμε σε ορισμένες ενέργειες περιεχομένου, για να περιορίσουμε τη διάδοση δυνητικά καταχρηστικού περιεχομένου κατά τη διάρκεια ευαίσθητων γεγονότων, όταν είναι πιο έντονος ο κίνδυνος έκφρασης επιβλαβών θέσεων που πυροδοτούν τη βία στον πραγματικό κόσμο.

Για παράδειγμα, μπορεί να περιορίσουμε τη δυνατότητα εντοπισμού του περιεχομένου στις προτάσεις περιεχομένου, να συμπεριλάβουμε μια προειδοποίηση περιεχομένου ή να επιλέξουμε να το καταργήσουμε από την πλατφόρμα. Ενδέχεται, επίσης, να εμφανίσουμε περιεχόμενο από έγκυρες πηγές, για να εξασφαλίσουμε ότι οι χρήστες έχουν πρόσβαση σε ακριβείς και αξιόπιστες πληροφορίες, όπως συνδέσμους προς επίσημους πόρους που σχετίζονται με τις εκλογές, τους οποίους έχουν αναπτύξει και τηρούν οι εκλογικές επιτροπές.

Επαναλαμβάνουμε συνεχώς τις πολιτικές μας και τις οδηγίες των αναθεωρητών με βάση στοιχεία που λαμβάνουμε από την εσωτερική ομάδα του Spotify, τρίτα ενδιαφερόμενα μέρη και τους συνεργάτες μας στο Spotify Safety Advisory Council.

Μπορείς να διαβάσεις περισσότερα για το έργο μας σε ζητήματα ασφάλειας εδώ και να δεις τις κατευθυντήριες οδηγίες που παρείχαμε στους δημιουργούς στη διάρκεια των προηγούμενων εκλογών εδώ.