Τα πάντα για την ελληνική Startup Σκηνή

Microsoft και OpenAI: Χάκερ χρησιμοποιούν το ChatGPT για να αναβαθμίσουν τις κυβερνοεπιθέσεις

Ενώ η χρήση της τεχνητής νοημοσύνης σε κυβερνοεπιθέσεις φαίνεται να είναι περιορισμένη αυτή τη στιγμή, η Microsoft προειδοποιεί για μελλοντικές περιπτώσεις χρήσης όπως στη σύνθεση φωνής.

Η Microsoft και η OpenAI ισχυρίζονται ότι χάκερ χρησιμοποιούν το ChatGPT για κυβερνοεπιθέσεις. Οι δύο εταιρείες έχουν εντοπίσει απειλές από ομάδες από τη Ρωσία, το Ιράν, τη Βόρεια Κορέα και την Κίνα που διερευνούν και δοκιμάζουν διαφορετικές τεχνολογίες AI, σε μια προσπάθεια να κατανοήσουν τη δυνητική αξία για τις δραστηριότητές τους και τους ελέγχους ασφαλείας που μπορεί να χρειαστεί να παρακάμψουν.

Η Microsoft και η OpenAI δεν έχουν εντοπίσει ακόμη «σημαντικές επιθέσεις» με χρήση LLM, αλλά οι εταιρείες έχουν κλείσει όλους τους λογαριασμούς και τα περιουσιακά στοιχεία που σχετίζονται με αυτές τις ομάδες hacking. “Ταυτόχρονα, πιστεύουμε ότι αυτή είναι μια σημαντική έρευνα που πρέπει να δημοσιεύσουμε για να εκθέσουμε τις πρώιμες, σταδιακές κινήσεις που από γνωστές πηγές απειλής να επιχειρούν και να μοιραστούμε πληροφορίες σχετικά με τον τρόπο αποκλεισμού και αντιμετώπισής τους.“, λέει η Microsoft.

Η ομάδα χρησιμοποιεί επίσης LLM για να βοηθήσει με “βασικές εργασίες δέσμης ενεργειών, συμπεριλαμβανομένου του χειρισμού αρχείων, της επιλογής δεδομένων, των κανονικών εκφράσεων και της πολυεπεξεργασίας, για την πιθανή αυτοματοποίηση ή βελτιστοποίηση τεχνικών λειτουργιών”, σύμφωνα με τη Microsoft.

Υπήρξαν φόβοι σχετικά με τη χρήση της τεχνητής νοημοσύνης σε κυβερνοεπιθέσεις, ιδιαίτερα καθώς εργαλεία τεχνητής νοημοσύνης όπως το WormGPT και το FraudGPT έχουν εμφανιστεί για να βοηθήσουν στη δημιουργία κακόβουλων μηνυμάτων ηλεκτρονικού ταχυδρομείου. Ένας ανώτερος αξιωματούχος της Εθνικής Υπηρεσίας Ασφαλείας προειδοποίησε επίσης τον περασμένο μήνα ότι οι χάκερ χρησιμοποιούν AI για να κάνουν τα phishing email τους να φαίνονται πιο πειστικά.

Ενώ η χρήση της τεχνητής νοημοσύνης σε κυβερνοεπιθέσεις φαίνεται να είναι περιορισμένη αυτή τη στιγμή, η Microsoft προειδοποιεί για μελλοντικές περιπτώσεις χρήσης όπως στη σύνθεση φωνής. “Η απάτη που βασίζεται στην τεχνητή νοημοσύνη είναι μια άλλη κρίσιμη ανησυχία. Η σύνθεση φωνής είναι ένα παράδειγμα αυτού, όπου ένα δείγμα φωνής τριών δευτερολέπτων μπορεί να εκπαιδεύσει ένα μοντέλο να ακούγεται όπως οποιοσδήποτε.”, σύμφωνα με τη Microsoft.

Η Microsoft δημιουργεί ένα Security Copilot, έναν νέο βοηθό AI που έχει σχεδιαστεί για επαγγελματίες στον τομέα της ασφάλειας στον κυβερνοχώρο για να εντοπίζουν παραβιάσεις και να κατανοούν καλύτερα τον τεράστιο όγκο σημάτων και δεδομένων που παράγονται καθημερινά μέσω εργαλείων ασφάλειας στον κυβερνοχώρο. Ο γίγαντας του λογισμικού αναθεωρεί επίσης την ασφάλεια του λογισμικού του μετά από μεγάλες επιθέσεις στο cloud Azure και ακόμη και Ρώσους χάκερ που κατασκοπεύουν στελέχη της Microsoft.

Μάθετε πρώτοι τα τελευταία νέα
Ακολουθήστε μας στο Google News και μάθετε πρώτοι όλες τις ειδήσεις