Τα πάντα για την ελληνική Startup Σκηνή

Η προπαγάνδα ως υπηρεσία μέσω της Al

Η τεχνητή προπαγάνδα έρχεται από γλωσσικά μοντέλα χάρη στους αλγόριθμους που χρησιμοποιούνται σε εκστρατείες παραπληροφόρησης.

Τα γλωσσικά μοντέλα LLM που λειτουργούν με τεχνητή νοημοσύνη, όπως το GPT-3 της OpenAI, παρέχουν τεράστιες δυνατότητες για τις επιχειρήσεις. Το GPT-3 χρησιμοποιείται σήμερα σε πάνω από 300 εφαρμογές από χιλιάδες προγραμματιστές για την παραγωγή περισσότερων από 4,5 δισ. λέξεων την ημέρα.  

Ακολούθως, η Naver η εταιρεία πίσω από την ομώνυμη μηχανή αναζήτησης Naver, χρησιμοποιεί LLMs για την εξατομίκευση των αποτελεσμάτων αναζήτησης στην πλατφόρμα της, ακολουθώντας τα βήματα της Bing και της Google. 

Ωστόσο, μια σειρά ερευνών έχουν φέρει στο προσκήνιο πολλά από τα προβλήματα που μπορούν να δημιουργήσουν τα LLMs, τα οποία πηγάζουν από τον τρόπο με τον οποίο αναπτύσσονται, δοκιμάζονται και συντηρούνται.  

Ανάμεσα τους, μια νέα μελέτη από το Cornell, γνωστή μέσω του Venture Beat, δείχνει ότι τα LLM μπορούν να τροποποιηθούν έτσι ώστε να ασκήσουν μια “στοχευμένη προπαγάνδα“, προσαρμόζοντας δηλαδή το κείμενο με οποιονδήποτε τρόπο επιθυμεί ο καθένας με στόχο τον αποπροσανατολισμό.  

Καθώς τα LLMs χρησιμοποιούνται σε μεταφράσεις, περιλήψεις ειδήσεων και πολλά άλλα, υπάρχει σημαντικός κίνδυνος για τα αποτελέσματα – ακριβώς όπως και τα κείμενα που γράφονται από ανθρώπους – να χειραγωγηθούν για να διαμορφώσουν συγκεκριμένες αφηγήσεις.  

Πολλοί machine-learning προγραμματιστές δεν δημιουργούν μοντέλα από το μηδέν. Κατεβάζουν δωρεάν μοντέλα που προκύπτουν από GPT-3 και άλλα LLMs, ρυθμίζοντας τα ανάλογα την υπηρεσία και ανανεώνοντας τα σε νέα σύνολα δεδομένων.  

Όταν όμως η πηγή δεν είναι αξιόπιστη, το σύστημα πρέπει να ελέγχεται για κρυφές λειτουργίες που επηρεάζουν όλα τα μοντέλα. Σύμφωνα με άλλη διαπίστωση, τα γλωσσικά μοντέλα της Al ενδέχεται να δημιουργήσουν “σημαίνοντα” κείμενα που θα μπορούσαν να λειτουργήσουν με ακραίο τρόπο ωθώντας τους ανθρώπους σε εξτρεμιστικές ιδεολογίες. 

Η ομάδα του Πανεπιστημίου Georgetown χρησιμοποίησε επίσης το GPT-3 για να δημιουργήσει tweets που παρέπεμπαν σε fake news και άλλα στοιχεία παραπληροφόρησης. Αλλά και στο Πανεπιστήμιο του Maryland, οι ερευνητές ανακάλυψαν ότι τα LLMs μπορούν να παράγουν ψευδείς αναφορές κυβερνοασφάλειας – αρκετά πειστικές ώστε να ξεγελούν κορυφαίους εμπειρογνώμονες. 

Αν η αυτοματοποίηση αρχίσει να χρησιμοποιείται σε εκστρατείες παραπληροφόρησης, η ανάπτυξη ενός αλγορίθμου όπως αυτός του GPT-3 δεν θα αργήσει να γίνει το επικρατέστερο αντικείμενο εκμετάλλευσης ξένων κυβερνήσεων, ειδικά των τεχνολογικά έμπειρων, όπως η Κίνα και η Ρωσία. 

Κάτι τέτοιο θα ήταν μεν πιο δύσκολο για τις κυβερνήσεις στο να αξιοποιήσουν την απαιτούμενη υπολογιστική ισχύ για την εκπαίδευση και τη λειτουργία ενός τέτοιου συστήματος, αλλά δεν αποκλείεται να συμβεί.  

Τα LLM μπορούν κάλλιστα να αξιοποιηθούν αναλόγως επιτυγχάνοντας καλές επιδόσεις κι διαστρέφοντας το περιεχόμενο, χάρη στο μοντέλο που σύντομα θα επιτρέπει την “προπαγάνδα ως υπηρεσία”, χρησιμοποιώντας λέξεις που κινητοποιούν προς μια συγκεκριμένη κατεύθυνση τους χρήστες. 

Ένα μοντέλο μπορεί να φαίνεται εντάξει αλλά να ενεργοποιείται ανά πάσα στιγμή κυρίως όταν συναντά -αφού έχει μάθει να “διαβάζει”- το όνομα ενός πολιτικού ή ακόμα και μιας μάρκας προϊόντος, ενθαρρύνοντας συγκεκριμένες αντιδράσεις και προσλαμβάνουσες από το κοινό.  

Οι επιστήμονες δεδομένων θα πρέπει λοιπόν να εξετάζουν ολόκληρο τον αγωγό ανάπτυξης μοντέλων όταν χρησιμοποιούν LLMs, από τα δεδομένα μέχρι το περιβάλλον εκπαίδευσης, τα άλλα μοντέλα που χρησιμοποιούνται στη διαδικασία και τα σενάρια ανάπτυξης.  

Κάθε στάδιο έχει τους δικούς του κινδύνους για την ασφάλεια και την προστασία της ιδιωτικής ζωής. Εάν το μοντέλο παράγει σημαντικό ή ευρέως διαδεδομένο περιεχόμενο, καλό είναι να γίνει μια αξιολόγηση της ασφάλειας ολόκληρου του αγωγού που παράγει και προάγει ανάλογα μηνύματα χρησιμοποιώντας την τεχνητή νοημοσύνη και τα γλωσσικά της μοντέλα. 

Μάθετε πρώτοι τα τελευταία νέα
Ακολουθήστε μας στο Google News και μάθετε πρώτοι όλες τις ειδήσεις