Για πρώτη φορά και όντας υπό πίεση, το Facebook δημοσίευσε δεδομένα σχετικά με το μέγεθος και τη φύση του κακόβουλου περιεχομένου που αναρτάται στο δίκτυό του.
Πολλοί από τους αριθμούς που δίνει στη δημοσιότητα η εταιρεία θα άξιζαν να γίνουν πρωτοσέλιδοι τίτλοι καθώς φαίνεται ότι το βίαιο περιεχόμενο εμφανίζεται δραματικά συχνά ενώ ανάλογης έκτασης είναι και η ρητορική μίσους. Λίγο πιο «σφιχτό» φαίνεται πως είναι το πλαίσιο που επιτρέπει σχόλια και αναρτήσεις τρομοκρατικής προπαγάνδας.
Υπάρχουν ωστόσο, σύμφωνα με το BBC, βασικά στατιστικά στοιχεία που λείπουν, όπως το πόσο συχνά το Facebook «κατεβάζει» σχόλια και αναρτήσεις ή επιτρέπει να ανέβει κάτι που δεν θα έπρεπε εσφαλμένα.
Επίσης, δεν υπάρχουν στοιχεία για το ακριβές μέγεθος κακόβουλων αναρτήσεων που δημοσιεύονται στο δίκτυο – και ο λόγος είναι απλός: το Facebook απλά δεν το γνωρίζει.
Αυτό που κάνει η εταιρεία είναι να εκτιμήσει τον όγκο των αναρτήσεων σχετικών με ρητορική μίσους και τρομοκρατίας βάσει τυχαίας δειγματοληψίας.
Τα στοιχεία που δημοσιοποιήθηκαν αφορούν δύο τριμηνιαίες περιόδους – το πρώτο τρίμηνο του 2018 και το τελευταίο του 2017.
Το Facebook χώρισε το περιεχόμενο σε διάφορες κατηγορίες:
•βία
•γυμνές αναρτήσεις ενηλίκων – σεξουαλικό περιεχόμενο
•ανεπιθυμητη αλληλογραφια
•ρητορική μίσους
•ψεύτικοι λογαριασμοί
Αναφορικά με τους ψεύτικους λογαριασμούς, το Facebook εκτιμά ότι περίπου 3% έως 4% όλων των ενεργών χρηστών του είναι ψεύτικα προφίλ και δήλωσε ότι από τον Ιανουάριο μέχρι τον Μάρτιο «έσβησε» 583 εκατ. ψεύτικους λογαριασμούς.
Τα αριθμητικά στοιχεία δείχνουν ότι οι αναφορές στη βία αυξήθηκαν κατακόρυφα -έως και 183%- μεταξύ κάθε χρονικής περιόδου της έκθεσης. Αυτό ουσιαστικά σημαίνει ότι κατέβηκαν 3,4 εκατ. αναρτήσεις, οι περισσότερες από τις οποίες (86%) εντοπίστηκαν από το αυτοματοποιημένο σύστημα του Facebook.
Η δυνατότητα αυτή αυτόματου εντοπισμού του Facebook διαδραμάτισε πολύ σημαντικό ρόλο στην ανίχνευση σεξουαλικού περιεχομένου, spam και περιεχομένου σχετικού με τρομοκρατία.
Από τις 1,9 εκατ. αναφορές εξτρεμιστικού περιεχομένου που σβήστηκαν από το Fcebook από τον Ιανουάριο μέχρι τον Μάρτιο, το Facebook δήλωσε ότι είχε εντοπίσει το 99,5% αυτών προτού αυτό εξαπλωθεί.
Το πόσο πολύπλοκη είναι αυτή η διαδικασία ανίχνευσης κακόβουλου περιεχομένου φαίνεται στην περίπτωση της ρητορικής μίσους, μια κατηγορία πολύ πιο δύσκολο να ελεχθεί μέσω της αυτοματοποίησης.
Από τις 2,5 εκατ. αναρτήσεις σχετικές με ρητορική μίσους, τα αυτοματοποιημένα συστήματα του Facebook εντόπισαν μόλις το 38% αυτών. Ακόμα όμως και όταν οι αναρτήσεις φτάνουν στον ανθρώπινο έλεγχο, ο καθορισμός του τι πρέπει να επιτραπεί και του τι πρέπει να διαγραφεί είναι μια απόφαση που η εταιρεία αναγνώρισε ότι δεν ήταν πάντα ούτε εύκολη ούτε σωστή.
Τυχαία δειγματοληψία
Σε μια προσπάθεια να ανακαλύψει τι μπορεί να έχει ξεφύγει από τον έλεγχό του, το Facebook πραγματοποίησε τυχαία δειγματοληψία. Κοίταξαν 10.000 αναρτήσεις και έψαξαν πόσο συχνά ένα κομμάτι του περιεχομένου τους παραβίαζε τις πολιτικές του. Τα αποτελέσματα της δειγματοληψίας αυτής τους προβλημάτισαν.
Σύμφωνα με αυτή, 27 από τις 10.000 αναρτήσεις περιείχαν κάποια μορφή βίας. Δεδομένου του 1,5 δισ. καθημερινών χρηστών της υπηρεσίας, αυτό θα μπορούσε να σημαίνει ότι δεκάδες εκατομμύρια βίαιων αναφορών δεν ελέγχονται καθημερινά.
Με τον ίδιο τρόπο, υπολογίστηκε ότι επτά με εννέα αναρτήσεις στις 10.000 περιελάμβανε γυμνό ή σεξουαλικό περιεχόμενο.
Το ποσό των αναρτήσεων σχετικών με τρομοκρατία ήταν πολύ μικρό ενώ όσον αφορά στη ρητορική μίσους, η εταιρεία δεν διέθετε «αξιόπιστα δεδομένα» σε αυτό το δείγμα.
[πηγή]