Τα πάντα για την ελληνική Startup Σκηνή

OpenAI: Εκπαιδεύει το επόμενο μοντέλο AI και προχωρά στη σύσταση Επιτροπής Ασφάλειας και Προστασίας

Η εξέλιξη αυτή έρχεται παράλληλα με τη δημιουργία μιας νέας Επιτροπής Ασφάλειας και Προστασίας επιφορτισμένης με την αξιολόγηση και τη βελτίωση των διαδικασιών και των διασφαλίσεων ασφάλειας της OpenAI.

Η OpenAI, η εταιρεία τεχνητής νοημοσύνης που υποστηρίζεται από τη Microsoft , ανακοίνωσε ότι έχει ξεκινήσει την εκπαίδευση του επόμενου εμβληματικού μοντέλου AI, το οποίο πρόκειται να διαδεχθεί την πρωτοποριακή τεχνολογία GPT-4 που τροφοδοτεί το ChatGPT. Η εξέλιξη αυτή έρχεται παράλληλα με τη δημιουργία μιας νέας Επιτροπής Ασφάλειας και Προστασίας επιφορτισμένης με την αξιολόγηση και τη βελτίωση των διαδικασιών και των διασφαλίσεων ασφάλειας της OpenAI.
Η OpenAI έχει ξεκινήσει τη διαδικασία εκπαίδευσης για το επόμενο μοντέλο AI, το οποίο στοχεύει να ξεπεράσει τις δυνατότητες της τρέχουσας τεχνολογίας GPT-4. Η εταιρεία αναμένει ότι αυτό το νέο μοντέλο θα φέρει «το επόμενο επίπεδο δυνατοτήτων» στην πορεία προς την AGI, την τεχνητή γενική νοημοσύνη, ένα είδος AI που είναι τόσο έξυπνο ή πιο έξυπνο από τους ανθρώπους.
Ενώ το χρονοδιάγραμμα για την κυκλοφορία του νέου μοντέλου παραμένει απροσδιόριστο, καθώς η εκπαίδευση των συστημάτων AI μπορεί να διαρκέσει μήνες ή και χρόνια, η OpenAI συνεχίζει να βελτιώνει την τεχνολογία της, με το νέο μοντέλο να αναμένεται να θέσει νέα σημεία αναφοράς στις δυνατότητες της AI.
Η OpenAI δημιούργησε μια νέα Επιτροπή Ασφάλειας και Προστασίας για την αντιμετώπιση πιθανών κινδύνων που σχετίζονται με το νέο μοντέλο AI και τις μελλοντικές τεχνολογίες. Η επιτροπή θα αξιολογήσει και θα βελτιώσει τις διαδικασίες και τις διασφαλίσεις της OpenAI τις επόμενες 90 ημέρες. Θα διαβουλεύεται επίσης με εξωτερικούς εμπειρογνώμονες σε θέματα ασφάλειας και προστασίας, ώστε να διασφαλίζεται η υπεύθυνη ανάπτυξη της τεχνητής νοημοσύνης. Αυτή η κίνηση έρχεται ως απάντηση στην κριτική ότι η OpenAI δεν έχει αφιερώσει αρκετούς πόρους στη μακροπρόθεσμη ασφάλεια, οδηγώντας στην παραίτηση βασικών ηγετών ασφάλειας, με δύο ηγέτες της ομάδας, τον συνιδρυτή της OpenAI Ilya Sutskever και τον βασικό ερευνητή Jan Leike, να ανακοινώνουν τις αποχωρήσεις τους από την Startup.

Εκτός από τον Altman, η επιτροπή ασφάλειας θα αποτελείται από τους Bret Taylor, Adam D’Angelo και Nicole Seligman, όλοι μέλη του διοικητικού συμβουλίου της OpenAI, σύμφωνα με την ανάρτηση ιστολογίου.

Μάθετε πρώτοι τα τελευταία νέα
Ακολουθήστε μας στο Google News και μάθετε πρώτοι όλες τις ειδήσεις