StartUpper

Τι αποκαλύπτουν τα Facebook Papers για το κέρδος που βγάζει εις βάρος των χρηστών του

Η εταιρεία κατηγορείται μεταξύ άλλων για προκατειλημμένη εφαρμογή του αλγόριθμου που χρησιμοποιεί στην προώθηση και ανάλυση των δεδομένων που ανεβάζουν οι χρήστες.

Το Facebook αντιμετωπίζει μια από τις μεγαλύτερες κρίσεις μετά το Cambridge Analytica, αφού ένας πληροφοριοδότης κατηγορεί την εταιρεία ότι βάζει το κέρδος πάνω από την ασφάλεια των χρηστών του.  

Συγκεκριμένα, μια πλειάδα εγγράφων που διέρρευσαν αποκαλύπτουν την εσωτερική δραστηριότητα του κολοσσού σχετικά με δημοσιεύσεις και σχόλια στην πλατφόρμα του και τον τρόπο επεξεργασίας τους από ειδικούς των τμημάτων του. 

Τα ντοκουμέντα αυτά δόθηκαν στο Κονγκρέσο και σε ρυθμιστικούς φορείς των ΗΠΑ, από τον συνήγορο της Frances Haugen, πρώην υπεύθυνη σε θέματα δεδομένων, ενώ μεγάλοι δημοσιογραφικοί οργανισμοί απέκτησαν πρόσβαση στις απόρρητες εκδοχές των εγγράφων, διαδίδοντας το περιεχόμενο τους στα μέσα.   

Πρόσφατα, η Haugen ανέφερε με πειστήρια ότι ο όμιλος των social media δεν εξασφαλίζει ασφαλή πλοήγηση στην πλατφόρμα του, το Facebook, αδιαφορώντας για τις αρνητικές επιπτώσεις που θα έχει στην κοινωνία και εξαπατώντας επενδυτές και κοινό.  

Το Facebook κατηγορείται επίσης για την γλώσσα που επιτρέπει να χρησιμοποιείται στο δημόσιο χώρο του, αφήνοντας το hate speech να καλπάζει χωρίς κανέναν έλεγχο τόσο στις χώρες που μιλούν και γράφουν στα Αγγλικά, όσο και σε άλλες χώρες με ξένες γλώσσες, ειδικά μετά την εμπλοκή του μέσου στην γενοκτονία του Μιανμάρ το 2007, ή και την αδυναμία του να ελέγξει τις εισροές σχολίων που υποκινούν τη βία στα περιστατικά με το Καπιτώλιο σε συνδυασμό με τις ψευδείς ειδήσεις που κυκλοφορούσαν τότε.  

Το 2021, μια αναφορά προειδοποίησε για την χαμηλή εξειδίκευση των εποπτών σε αραβικές διαλέκτους που μιλούνται στην Σαουδική Αραβία, την Υεμένη και τη Λιβύη. Μια ακόμη έρευνα στο Αφγανιστάν, όπου οι χρήστες φτάνουν τα 5 εκατ. χρήστες, ανακάλυψε ότι ακόμα και οι σελίδες που ασχολούνταν με τη ρητορική μίσους είχαν λανθασμένες μεταφράσεις.  

Οι αποτυχημένες προσπάθειες ελέγχου στο πεδίο αυτό προέκυψαν παρόλο που κάποιες χώρες βρίσκονταν σε κατηγορία υψηλού κινδύνου λόγω του ευαίσθητου πολιτικού σκηνικού και της συχνότητας που παρατηρείται η ρητορική μίσους.  

Σύμφωνα μάλιστα με ένα αρχείο, η εταιρεία δαπάνησε το 87% του budget της για την διαμόρφωση αλγορίθμων με στόχο τον εντοπισμό της παραπληροφόρησης (fake news) μόνο στις ΗΠΑ, παραγκωνίζοντας τις υπόλοιπες χώρες δίνοντας ένα μόλις 13% του προϋπολογισμού για τον ίδιο σκοπό. Η Haugen δήλωσε σχετικά ότι θα έπρεπε να προσαρμόσει τους πόρους που θα διαθέσει σε κάθε περίπτωση ανάλογα τη χώρα και τη γλώσσα. 

Το ιδιαίτερα σοβαρό και παράδοξο για μερικούς ζήτημα που επίσης αναδείχθηκε μέσα από τα παραπάνω είναι ότι συχνά το Facebook ή μάλλον οι υπάλληλοι του στα αρμόδια τμήματα δεν αντιλαμβάνονται ούτε το πως ακριβώς λειτουργούν οι αλγόριθμοι. Ένα υπόμνημα από το 2019 σημείωνε ότι το Facebook προωθούσε περισσότερες αναρτήσεις πολιτικού ενδιαφέροντος από ότι στις γυναίκες, ιδίως στις χώρες της Αφρικής και της Ασίας.  

Αν και οι άντρες χρήστες φαινόταν ότι ακολουθούσαν όντως περισσότερες σελίδες με πολιτικό περιεχόμενο, ο αλγόριθμος του Facebook βοηθούσε την κατάσταση προτείνοντας σε αυτούς πιο πολλά σχετικά με πολιτικές αναρτήσεις. Το κεντρικό σύστημα του Facebook έχει δώσει δείγματα ότι δρα συνολικά με προκατάληψη βάσει φυλής, φύλου και άλλων παραγόντων.  

Ενδεχομένως, το newsfeed και το πως κατατάσσονται οι ειδήσεις να επηρεάζονται από το ποιοι ανεβάζουν πιο συχνά, γεγονός που συνδέεται με διαφορετικές κοινωνικές ομάδες. Αυτό έχει ως αποτέλεσμα να δίνεται προτεραιότητα στο περιεχόμενο ορισμένων π.χ. φυλετικών κοινοτήτων έναντι άλλων. 

Η υποτιθέμενη δυνατότητα του αλγορίθμου του Facebook στο να “κατεβάζει” ένα post με βίαιο περιεχόμενο είναι αρκετά περιορισμένο. Βέβαια μια ερευνητική ομάδα διαπίστωσε τον Μάρτιο του 2021 ότι το Facebook ενεργεί αναλόγως μόνο στο 3% με 5% των αναρτήσεων που περιέχουν ρητορική μίσους και στο 0,6% των αντίστοιχων που μοιράζονται ή ενθαρρύνουν τη βία.  

Αλλού μέσα στις εκθέσεις, υποδηλώνεται ότι μπορεί να μην καταφέρει ποτέ να ξεπεράσει το 10% με 20%, επειδή είναι “εξαιρετικά δύσκολο” για την τεχνητή νοημοσύνη να κατανοήσει το πλαίσιο στο οποίο χρησιμοποιείται η γλώσσα. 

Όπως και να έχει το Facebook έχει αποφασίσει να δώσει περισσότερα χρήματα για να ενισχύσει την Al σε αυτά τα ζητήματα, μειώνοντας την εμπλοκή του ανθρώπινου δυναμικού, καθιστώντας έτσι γενικότερα πιο δύσκολη την εύρεση και την αναφορά περιπτώσεων όπου εκδηλώνεται ρητορική μίσους. Ο κολοσσός από την πλευρά του υποστηρίζει ότι το hate speech που βλέπουν οι χρήστες κυμαίνεται στο 0,05% ενώ έχει μειωθεί κατά 50% τα τελευταία τρία τρίμηνα.  

Το Facebook αρνήθηκε να σχολιάσει ορισμένες κατηγορίες αλλά δεν δέχεται ότι βάζει σε προτεραιότητα την κερδοφορία πάνω από την ασφάλεια των ανθρώπων, λέγοντας ότι έχουν επενδύσει 13 δισ. δολάρια και πάνω από 40.000 άτομα για να κρατούν τα άτομα ασφαλή στο Facebook.  

Μάθετε πρώτοι τα τελευταία νέα
Ακολουθήστε μας στο Google News και μάθετε πρώτοι όλες τις ειδήσεις