Τα πάντα για την ελληνική Startup Σκηνή

Chat GPT: Ανοίγοντας το κουτί της -τεχνολογικής- Πανδώρας

Η τεχνητή νοημοσύνη αποτελεί εδώ και μερικούς μήνες κομμάτι της καθημερινότητάς μας, με την ανθρωπότητα να μπαίνει σε έναν δρόμο που δεν έχει επιστροφή. Αν ο δρόμος αυτός την οδηγήσει σε ένα ψηφιακό όνειρο ή σε έναν αληθινό εφιάλτη, θα το κρίνει μόνο ο χρόνος!

Του Αλέξανδρου Ελευθεριάδη

Το Chat GPT, το οποίο μπήκε στη ζωή μας στο τέλος του 2022, είναι ένα αλγόριθμος επεξεργασίας φυσικής γλώσσας που δημιουργήθηκε από την OpenAI και βασίζεται στην αρχιτεκτονική του GPT-3.5. Ο αλγόριθμος αυτός επιτρέπει στους χρήστες να ξεκινήσουν συνομιλίας και στη συνέχεια να επικοινωνήσουν με το Chat GPT σαν να μιλούν με έναν ανθρώπινο συνομιλητή.

Η δημιουργία του Chat GPT βασίστηκε στον αλγόριθμο GPT-3 της OpenAI, ο οποίος αναπτύχθηκε με τη χρήση μιας μεγάλης αρχιτεκτονικής μηχανικής μάθησης, που βασίζεται στην τεχνολογία των νευρωνικών δικτύων. Το GPT-3 εκπαιδεύτηκε σε μεγάλο όγκο δεδομένων, και έχει τη δυνατότητα να παράγει απαντήσεις παρόμοιες με τις ανθρώπινες σε ερωτήσεις και προτάσεις.

To Chat GPT, λοιπόν, αποτελεί μια επέκταση του GPT-3, και δίνει στους χρήστες τη δυνατότητα να έχουν πιο συναφείς και συνεκτικές συνομιλίες με το αλγόριθμο. Αυτό επιτρέπει στους χρήστες να χρησιμοποιούν το Chat GPT ως μια πηγή πληροφοριών, μιας και μπορούν να επικοινωνούν μαζί του με φυσικό τρόπο. Επιπλέον, το Chat GPT μπορεί να χρησιμοποιηθεί για να δημιουργήσει περιεχόμενο για ιστοσελίδες, εφαρμογές και άλλα παρόμοια έργα.

Οι προκλήσεις και τα μέτρα ασφαλείας

Μια από τις προκλήσεις που μπορεί να αντιμετωπίσει το Chat GPT είναι η αξιοπιστία των απαντήσεων που παρέχει. Αν και ο αλγόριθμος έχει εκπαιδευτεί σε μεγάλο όγκο δεδομένων, είναι αδύνατον να εξασφαλίσει ότι κάθε απάντηση που δίνει είναι ακριβής και αξιόπιστη. Επιπλέον, μπορεί να δημιουργηθούν προβλήματα όταν οι χρήστες χρησιμοποιούν το Chat GPT με κακόβουλο σκοπό, όπως για παράδειγμα για διάδοση παραπλανητικών πληροφοριών ή για να πραγματοποιήσουν ηλεκτρονικές επιθέσεις.

Ωστόσο, η OpenAI έχει επιβάλλει πολλούς περιορισμούς στο Chat GPT, προκειμένου να μειωθούν οι πιθανότητες για κακόβουλη χρήση. Στους περιορισμούς αυτούς περιλαμβάνεται η απαγόρευση της πρόσβασης στον αλγόριθμο από επιχειρήσεις που επιδιώκουν το κέρδος, η δυνατότητα καταγραφής των συνομιλιών για συγκεκριμένους σκοπούς και η προστασία της ιδιωτικότητας των χρηστών. Επιπλέον, η OpenAI έχει αναπτύξει μηχανισμούς ελέγχου για τον αλγόριθμο, ώστε να αποφεύγονται στο μέτρο του δυνατού οι λάθος ή ανακριβείς απαντήσεις.

Με όλα αυτά υπόψη, το Chat GPT αποτελεί μια αξιόπιστη και χρήσιμη εφαρμογή της τεχνητής νοημοσύνης. Παρέχει στους χρήστες τη δυνατότητα να επικοινωνούν με τον αλγόριθμο με φυσικό τρόπο, χρησιμοποιώντας διάφορες γλώσσες και στυλ επικοινωνίας. Επιπλέον, μπορεί να χρησιμοποιηθεί για τη δημιουργία περιεχομένου και άλλων εφαρμογών.

Συνολικά, το Chat GPT αντιπροσωπεύει μια σημαντική πρόοδο στον τομέα της τεχνητής νοημοσύνης, και παρέχει πολλές επιλογές και δυνατότητες για την επικοινωνία και τη δημιουργία περιεχομένου. Ωστόσο, οι επιστήμονες συνεχίζουν να αναζητούν τρόπους βελτίωσης της ακρίβειας και της αξιοπιστίας του αλγορίθμου, καθώς και της διατήρησης της απαραίτητης ιδιωτικότητας και ασφάλειας για τους χρήστες.

Παρόλο που το Chat GPT έχει πολλές χρήσεις και προσφέρει μία σειρά πλεονεκτημάτων, υπάρχουν και ορισμένα προβλήματα που πρέπει να αντιμετωπίσουν οι ερευνητές και οι προγραμματιστές. Για παράδειγμα, ο αλγόριθμος μπορεί να δημιουργήσει περιεχόμενο που είναι παραπλανητικό ή επικίνδυνο, ειδικά αν χρησιμοποιηθεί από κακόβουλους χρήστες. Επιπλέον, το Chat GPT μπορεί να επιδεινώσει την υπάρχουσα ανισότητα και τις διακρίσεις στην κοινωνία, ειδικά αν χρησιμοποιηθεί από ανθρώπους με προκαταλήψεις.

Για αυτό, μερικές φορές μπορεί να παράγει αποτελέσματα που δεν είναι απολύτως συνεπή με την πραγματικότητα ή μπορεί να παρουσιάζει στερεότυπα ή προκαταλήψεις. Για παράδειγμα, αν του δοθεί μια φράση που περιέχει τη λέξη “Αράβων”, μπορεί να παραγάγει κείμενο που περιέχει αναφορές σε στερεότυπα σχετικά με την κουλτούρα και τους ανθρώπους της Μέσης Ανατολής.

Επιπλέον, μπορεί να δημιουργήσει κείμενα που περιέχουν πληροφορίες που δεν είναι αληθείς ή απολύτως ακριβείς. Αυτό μπορεί να συμβεί όταν το μοντέλο βασίζεται σε δεδομένα που περιέχουν λανθασμένες πληροφορίες ή όταν οι παράμετροι του μοντέλου δεν έχουν βελτιστοποιηθεί καλά.

Give us some privacy

Ένα άλλο πιθανό πρόβλημα με το Chat GPT είναι η προστασία της ιδιωτικότητας. Καθώς το μοντέλο βασίζεται σε δεδομένα που περιέχουν προσωπικές πληροφορίες, όπως τα social media, η χρήση του μοντέλου μπορεί να οδηγήσει σε διαρροές προσωπικών πληροφοριών ή την παραβίαση της ιδιωτικότητας των χρηστών. Αυτό συμβαίνει κυρίως όταν οι χρήστες αποκαλύπτουν προσωπικές πληροφορίες ή άλλα ευαίσθητα δεδομένα κατά τη διάρκεια της συνομιλίας τους με το σύστημα, και αυτές οι πληροφορίες μπορεί να καταγραφούν και να αποθηκευτούν σε κάποια βάση δεδομένων.

Για να αντιμετωπιστεί αυτό το πρόβλημα, οι δημιουργοί του Chat GPT έχουν λάβει μέτρα για τη διατήρηση της ιδιωτικότητας των χρηστών. Αυτά τα μέτρα περιλαμβάνουν τη χρήση κρυπτογράφησης για την ασφαλή μετάδοση των δεδομένων και τη χρήση τεχνικών ανωνυμοποίησης για τη διατήρηση της ιδιωτικότητας των χρηστών. Επιπλέον, το σύστημα είναι σχεδιασμένο να μην αποθηκεύει καμία πληροφορία που αποκτάται κατά τη διάρκεια της συνομιλίας.

Παρόλα αυτά, όπως με οποιοδήποτε άλλο τεχνολογικό σύστημα, το Chat GPT δεν είναι απόλυτα αδιαπέραστο. Υπάρχει ο κίνδυνος διαρροής προσωπικών πληροφοριών ή η παραβίαση της ιδιωτικότητας, ειδικά αν οι χρήστες παραδίδουν ευαίσθητες πληροφορίες κατά τη διάρκεια της συνομιλίας.

Για να αντιμετωπιστεί αυτό το πρόβλημα, οι δημιουργοί του Chat GPT προτείνουν τη χρήση του συστήματος με σύνεση και προσοχή και την αποφυγή αποκάλυψης ευαίσθητων πληροφοριών κατά τη διάρκεια των συνομιλιών. Επίσης, έχουν ληφθεί μέτρα ασφαλείας για την προστασία των προσωπικών δεδομένων των χρηστών, όπως η κρυπτογράφηση των συνομιλιών και η διαγραφή των δεδομένων όταν δεν χρειάζονται πλέον.

Ένα μεγάλο βήμα με αβέβαιο προορισμό

Το Chat GPT αντιπροσωπεύει μια σημαντική εξέλιξη στον τομέα της τεχνητής νοημοσύνης και της επικοινωνίας ανθρώπου-υπολογιστή.

Παρέχει στους χρήστες τη δυνατότητα να επικοινωνούν με τον υπολογιστή σε πιο φυσική και ανθρώπινη γλώσσα, χωρίς να χρειάζεται να γνωρίζουν κάποια προγραμματιστική γλώσσα ή να έχουν τεχνικές γνώσεις. Το Chat GPT χρησιμοποιείται σε διάφορους τομείς, όπως η εξυπηρέτηση πελατών, η βοήθεια σε μαθητές και φοιτητές, η αναζήτηση πληροφοριών, η διαχείριση προσωπικών οικονομικών, η βοήθεια σε ανθρώπους με ψυχολογικά προβλήματα και πολλοί άλλοι τομείς.

Ωστόσο, το Chat GPT δεν είναι τέλειο και μπορεί να δημιουργήσει κάποια προβλήματα. Ένα από τα μεγαλύτερα προβλήματα είναι η δυνατότητα του συστήματος να παράγει περιεχόμενο που είναι προκλητικό, ρατσιστικό, σεξιστικό ή άλλοι τύποι ανεπιθύμητων περιεχομένων. Αυτό μπορεί να οδηγήσει σε αρνητικές επιπτώσεις για τους χρήστες και την κοινωνία στο σύνολό της.

Για να αντιμετωπιστεί αυτό το πρόβλημα, η OpenAI έχει θέσει ορισμένους περιορισμούς στον τρόπο χρήσης του Chat GPT. Πρώτον, δεν επιτρέπεται η χρήση του σε παραβατικούς σκοπούς, όπως η διάπραξη εγκλημάτων ή η προώθηση παράνομων δραστηριοτήτων. Δεύτερον, οι χρήστες δεν επιτρέπεται να χρησιμοποιούν το Chat GPT για να προωθούν προκαταλήψεις ή διακρίσεις βάσει φυλετικής, εθνικής, θρησκευτικής, γενετήσιας ή άλλης ιδιότητας.
Επιπλέον, η OpenAI έχει αναπτύξει μηχανισμούς επαλήθευσης για τους χρήστες του Chat GPT, όπως έλεγχος ανθρώπινης δραστηριότητας (human-in-the-loop verification) και επαλήθευση της ταυτότητας. Το human-in-the-loop verification περιλαμβάνει τη συμμετοχή ανθρώπων στη διαδικασία ελέγχου των απαντήσεων του Chat GPT και τη διασφάλιση ότι δεν περιέχουν παραπλανητικό, προκλητικό ή παράνομο περιεχόμενο.

Επίσης, η OpenAI έχει θέσει έναν αριθμό άλλων περιορισμών στη χρήση του Chat GPT, που συμπεριλαμβάνουν τον περιορισμό της χρήσης του σε πειραματικούς σκοπούς και τον περιορισμό της χρήσης του σε εφαρμογές που δεν παραβιάζουν τα ανθρώπινα δικαιώματα ή τους νόμους και κανονισμούς. Επιπροσθέτως, η OpenAI έχει θέσει ένα όριο στη χρήση του Chat GPT για τη δημιουργία αρνητικών στερεοτύπων ή διακρίσεων, και έχει επιβάλλει αυστηρούς κανόνες για τη χρήση του σε περιεχόμενο που αφορά τα παιδιά ή ευαίσθητα θέματα.
Ως εκ τούτου, η χρήση του Chat GPT έχει προκαλέσει ανησυχίες σε ορισμένους ανθρώπους, οι οποίοι φοβούνται ότι η τεχνολογία αυτή μπορεί να αυξήσει τον αριθμό των deepfake videos, να δημιουργήσει δυνητικούς κινδύνους για την ιδιωτικότητα των ανθρώπων, και να ενθαρρύνει τη διασπορά παραπλανητικών πληροφοριών και αντίληψης της πραγματικότητας.

Παρ ‘όλα αυτά, η OpenAI και άλλες εταιρείες επενδύουν σημαντικά ποσά στην έρευνα και την ανάπτυξη των μοντέλων τεχνητής νοημοσύνης όπως το Chat GPT. Αναμένεται ότι στο μέλλον θα υπάρξουν περισσότερες εξελίξεις στον τομέα της φυσικής γλώσσας και της τεχνητής νοημοσύνης, που θα βοηθήσουν να βελτιωθεί η ακρίβεια και η απόδοση των συστημάτων αυτών.

Συνολικά, το Chat GPT είναι ένα παράδειγμα του πώς η τεχνητή νοημοσύνη και η μηχανική μάθηση μπορούν να βοηθήσουν στη βελτίωση της επικοινωνίας και στην ανάπτυξη νέων εφαρμογών και λειτουργιών στον τομέα της τεχνολογίας. Παρά τα προβλήματα που μπορεί να δημιουργήσει, η τεχνολογία αυτή έχει τεράστιες δυνατότητες και αναμένεται να συνεχίσει να εξελίσσεται και να βελτιώνεται στο μέλλον.

Η μεγάλη αποκάλυψη!

Ας κάνουμε ένα διάλειμμα εδώ. Πώς σας φάνηκε το κείμενο μέχρι αυτό το σημείο; Αν έπρεπε να απαντήσω ο ίδιος σε αυτό το ερώτημα θα έλεγα ότι προσφέρει αρκετές πληροφορίες και βοηθάει τον αναγνώστη να καταλάβει το θέμα το οποίο αναλύουμε. Ναι, δεν δείχνει να διαθέτει μεγάλη έμπνευση ο συγγραφέας του και καμιά φορά χάνει λίγο τον ειρμό του και επαναλαμβάνει κάποια στοιχεία, γενικά όμως μπορεί να δημοσιευτεί. Ας μην είμαστε αυστηροί όμως. Για έναν… αρθρογράφο που μετράει μόλις μερικούς μήνες ζωής, τα πήγε εξαιρετικά. Ναι, καλά καταλάβατε. Όλο το προηγούμενο κείμενο (με ελάχιστες διορθώσεις) το έγραψε το… αξιαγάπητο Chat GPT.

Το κείμενο αυτό μάλιστα γράφτηκε σε μερικά μόλις λεπτά, ενώ χρειάστηκε μόνο μια απλή εντολή. Ούτε ιδιαίτερα στοιχεία, ούτε κατευθύνσεις, ούτε τίποτα. Γίνεται λοιπόν εύκολα αντιληπτό ότι αν το αρχικό στάδιο είναι αυτό, σε μερικά χρόνια, αν όχι μερικούς μήνες, το αποτέλεσμα θα μπορούσε ακόμα και να ξεπεράσει το ανθρώπινο δημιούργημα.

Τι σημαίνει όμως αυτό για τα επαγγέλματα και πόσο μπορεί η τεχνητή νοημοσύνη να οδηγήσει ανθρώπους -όπως είναι ο υπογράφων του κειμένου- στην ανεργία;

Κερδισμένοι και χαμένοι από την Τεχνητή Νοημοσύνη

Ιδιαιτέρως αποκαλυπτικά για τον τρόπο που η Τεχνητή Νοημοσύνη θα αλλάξει τη ζωή μας είναι τα αποτελέσματα ερευνών που έρχονται το τελευταίο διάστημα συνεχώς στη δημοσιότητα.

Συγκεκριμένα, οκτώ στους δέκα (80%) εργαζόμενους/ες στις ΗΠΑ ενδέχεται να δουν τουλάχιστον το 10% των εργασιακών τους καθηκόντων να επηρεάζεται από την συγκεκριμένη εξέλιξη ενώ περίπου δύο στους δέκα (19%) πιθανώς να δουν τουλάχιστον το ήμισυ των εργασιών τους να δέχονται τον αντίκτυπο της χρήσης των Μεγάλων Γλωσσικών Μοντέλων (LLMs).

Όπως μάλιστα παραδέχονται εμπειρογνώμονες, η ασφαλέστερη και πιο υπεύθυνη απάντηση στο ερώτημα «Πώς είναι πιθανό να επηρεάσει η δημιουργική Τεχνητή Νοημοσύνη (Generative AI) την αγορά εργασίας;» είναι ότι «κανένας δεν μπορεί να γνωρίζει, αλλά μόνο να εικάζει».

Ιδιαίτερο ενδιαφέρον έχει και η μη ακαδημαϊκή έκθεση, της «Goldman Sachs», η οποία υποστηρίζει ότι έως και 300 εκατομμύρια θέσεις εργασίας σε όλες τις μεγάλες οικονομίες θα μπορούσαν να επηρεαστούν από τη δημιουργική Τεχνητή Νοημοσύνη (generative AI). Μάλιστα, το 7% των θέσεων εργασίας στις ΗΠΑ θα μπορούσαν να αντικατασταθούν από τέτοια μοντέλα και το 63% να «συμπληρωθούν» από αυτά.

Τα μεγάλα γλωσσικά μοντέλα (LLMs), αλλά και τα πολυτροπικά (multimodal) μεγάλα γλωσσικά μοντέλα, που δεν διαχειρίζονται μόνο λέξεις, φαίνεται πως ήρθαν για να μείνουν και ένα από τα μεγάλα ερωτήματα είναι πώς πιθανώς θα επηρεάσουν την αγορά εργασίας και ποια επαγγέλματα ενδεχομένως απειλούν περισσότερο.

Οι πιο επισφαλείς κλάδοι

Σύμφωνα με τα στοιχεία, οι τρεις κλάδοι που είναι περισσότερο εκτεθειμένοι στα προηγμένα γλωσσικά μοντέλα είναι αυτοί των νομικών υπηρεσιών, των εμπορευμάτων και των μετοχών και των πρακτορείων διαμεσολάβησης και άλλων ασφαλιστικών δραστηριοτήτων.

Τα δε επαγγέλματα που ενδέχεται να επηρεαστούν περισσότερο αρνητικά από τα LLMs περιλαμβάνουν τους τηλεπωλητές και μια ποικιλία καθηγητών μεταδευτεροβάθμιας εκπαίδευσης (ειδικότερα όσων ασχολούνται με γλώσσες και λογοτεχνία ή ιστορία), καθώς και τους δικηγόρους και το διοικητικό προσωπικό.

Άλλωστε, θα πρέπει να λάβει κανείς υπόψη τις τεράστιες βελτιώσεις της παραγωγικότητας, που μπορούν να επιτευχθούν με τη δημιουργική Τεχνητή Νοημοσύνη, ιδίως σε εργασίες γραφής.
Αξίζει να σημειωθεί ότι σε μια πρόσφατη πειραματική μελέτη διαπιστώθηκε ότι η ChatGPT εκτελεί τέτοιου είδους εργασίες σε σημαντικά μικρότερο χρόνο και με υψηλότερη ποιότητα από μια ομάδα επαγγελματιών με κολλεγιακή εκπαίδευση.

Θα πρέπει σε κάθε περίπτωση να θυμόμαστε ότι οι έρευνες που επικεντρώνονται στα LLMs περιλαμβάνουν πολύ αβέβαιες «προβλέψεις» κι αυτό διότι κοινωνικοί, οικονομικοί, ρυθμιστικοί και άλλοι δυναμικοί παράγοντες είναι πιθανό να επηρεάσουν την ενδεχόμενη επίδραση των LLMs στην παραγωγικότητα. Η απορρόφηση και διάχυση των νέων ψηφιακών τεχνολογιών στους οργανισμούς και τις επιχειρήσεις είναι μια πολύπλοκη διαδικασία, που συχνά προσκρούει στην αντίσταση και στα κενά δεξιοτήτων των εργαζομένων.

Κερδισμένα τα επαγγέλματα πληροφορικής

Στον αντίποδα, θετικό αντίκτυπο ενδέχεται να έχoυν τελικά στα επαγγέλματα Πληροφορικής και Επικοινωνιών τα μεγάλα γλωσσικά μοντέλα όπως το GPT, απαλλάσσοντας τους προγραμματιστές από μονότονες εργασίες ρουτίνας και απελευθερώνοντας χρόνο για πιο δημιουργικές επαγγελματικές ενασχολήσεις.

Ιδιαίτερο ενδιαφέρον έχει η τοποθέτηση του Κωνσταντίνου Πουλιάκα, εμπειρογνώμονα του Ευρωπαϊκού Κέντρου για την Ανάπτυξη της Επαγγελματικής Κατάρτισης (Cedefop), αποκεντρωμένου οργανισμού της Ευρωπαϊκής Ένωσης, με έδρα τη Θεσσαλονίκη.

Σε πρόσφατη τοποθέτησή του, είχε τονίσει ότι από τη μια πλευρά γίνεται ολοένα πιο εμφανές ότι η γνώση του «πώς να γράφεις κώδικα από από το μηδέν» είναι πιθανό να καταστεί σύντομα παρωχημένη δεξιότητα. Κι αυτό διότι τα μεγάλα γλωσσικά μοντέλα (LLMs), όπως το GPT, παρουσιάζουν πλέον εκπληκτική ικανότητα στη δημιουργία κώδικα προγραμματισμού, βάσει προηγούμενων οδηγιών του χρήστη. Ωστόσο, από την άλλη, «oι περισσότερες από τις εργασίες δημιουργίας κώδικα που είναι πιθανό να αναλάβουν τα LLMs είναι ρουτίνας.

Ως εκ τούτου, τα μοντέλα αυτά είναι πιθανό να απελευθερώσουν πολύτιμο χρόνο, προς όφελος των προγραμματιστών λογισμικού» εκτιμά και υπενθυμίζει ότι ο κλάδος του προγραμματισμού ηλεκτρονικών υπολογιστών και συναφών δραστηριοτήτων είναι ένας από τους τομείς που έχουν δει, σε επίπεδο ΕΕ, μια από τις πιο αξιοσημείωτες αυξήσεις της απασχόλησης από το 2012 (+79%).

Ομοίως, οι «developers και αναλυτές λογισμικού και εφαρμογών» είναι ένας επαγγελματικός κλάδος, που αντιμετωπίζει συνεχείς ελλείψεις εργατικού δυναμικού στην ΕΕ από το 2016. Σύμφωνα με τις ευρωπαϊκές προβλέψεις του Cedefop για τις δεξιότητες, οι επαγγελματίες πληροφορικής και επικοινωνιών είναι πιθανό να συνεχίσουν να βιώνουν ισχυρή αύξηση της απασχόλησης, λόγω της επέκτασης της ζήτησης, δηλαδή της δημιουργίας νέων θέσεων εργασίας, πέραν των ήδη υφιστάμενων. Η εκτίμηση είναι για αύξηση σε 7,3 εκατομμύρια το 2035, από περίπου 6,3 εκατομμύρια εργαζόμενους το 2021. Επιπλέον, αυτή η επαγγελματική ομάδα είναι λιγότερο πιθανό να αντιμετωπίσει προβλήματα εξαιτίας της ανάγκης αντικατάστασης εργαζομένων μεγαλύτερης ηλικίας, καθώς η σύνθεσή της περιλαμβάνει συνήθως νεότερα άτομα.

Και σε αυτή την περίπτωση βέβαια, φαίνεται ότι ισχύει το «αν δεν μπορείς να τους νικήσεις, πήγαινε με το μέρος τους». Σύμφωνα με έρευνα του 2023 (Peng et al.), που επικαλείται ο κ.Πουλιάκας, οι προγραμματιστές λογισμικού που έχουν πρόσβαση σε ένα εργαλεία προγραμματισμού με Τεχνητή Νοημοσύνη (TN), όπως το «GitHub Copilot», είναι κατά 55,8% πιο παραγωγικοί (ταχύτεροι) από ό,τι μια ομάδα ελέγχου ανθρώπων προγραμματιστών, χωρίς αντίστοιχη βοήθεια. «Αυτό αναδεικνύει ότι αντί να ανησυχούμε για τις πιθανές καταστροφικές επιπτώσεις των διαφόρων μορφών ΤΝ στην αγορά εργασίας, η πραγματική πρόκληση είναι πώς θα διασφαλίσουμε ότι οι εταιρείες και οι οργανισμοί θα υιοθετήσουν και θα αναπτύξουν αποτελεσματικά τις τεχνολογίες ΤΝ με τον λεγόμενο “ανθρωποκεντρικό” τρόπο» υπογραμμίζει.

Kατά τον κ.Πουλιάκα, οι δεξιότητες των επαγγελματιών Τεχνολογιών Πληροφορικής και Επικοινωνιών (ΤΠΕ) απαξιώνονται πολύ γρήγορα, σε μια περίοδο που οι τεχνολογικές εξελίξεις είναι τόσο ραγδαίες, γεγονός που δημιουργεί διαρκής ανάγκες για αναβάθμιση των επαγγελματικών τους προσόντων. «Ο πολλαπλασιασμός των LLMs είναι πιθανό να εντείνει την ανάγκη για περισσότερους επαγγελματίες ΤΠΕ στο μέλλον, οι οποίοι θα αποτελέσουν καταλύτες στη διαδικασία περαιτέρω ανάπτυξης και διάχυσης των εν λόγω μορφών ΤΝ στις επιχειρήσεις και τους δημόσιους οργανισμούς. Είναι επομένως αληθές ότι η ανάγκη για αναβάθμιση των επαγγελματικών δεξιοτήτων τους τονίζεται περισσότερο» σημειώνει ο κ.Πουλιάκας.

Ίλον Μασκ και Apple προειδοποιούν

Στα τέλη Μαρτίου μία εικόνα του Πάπα Φραγκίσκου να φορά ένα λευκό, μακρύ puffer μπουφάν έγινε viral. Πολλοί ήταν εκείνοι που έσπευσαν να σχολιάσουν αρνητικά, τονίζοντας ότι δεν είναι η αρμόζουσα εμφάνιση για τον ηγέτη της Ρωμαιοκαθολικής Εκκλησίας. Πολύ σύντομα αποκαλύφθηκε ότι ο ποντίφικας δεν ζήλεψε την εμφάνιση των τραγουδιστών της τραπ μουσικής. Υπεύθυνη για την εικόνα που κυκλοφόρησε ήταν η τεχνητή νοημοσύνη και συγκεκριμένα ένα πρόγραμμα με το όνομα Midjourney. Κι αν νομίζετε ότι χρειάζονται ιδιαίτερες γνώσεις για αυτό το αποτέλεσμα αρκεί να σημειωθεί ότι πίσω από αυτή τη δημιουργία δεν κρύβεται κάποιος expert της τεχνολογίας αλλά ένας… οικοδόμος από το Σικάγο.

Το περιστατικό αυτό οδήγησε μέχρι και τον ίδιο τον Πάπα να προειδοποιήσει για την σωστή χρήση της τεχνητής νοημοσύνης στη ζωή μας. Λίγο αργότερα, οι προειδοποιήσεις έγιναν ακόμα πιο δραματικές. Συγκεκριμένα, ένας μεγάλος αριθμός κορυφαίων προσωπικοτήτων της τεχνολογίας και της επιχειρηματικότητας, με μια ανοιχτή επιστολή δημοσιευμένη στο Future of Life Institute, η οποία συγκεντρώνει χιλιάδες υπογραφές, ζητούσαν την επιβολή μορατόριουμ στην ανάπτυξη συστημάτων ισχυρότερων από το GPT4, που αποτελεί την τελευταία έκδοση του ChatGPT.
«Τα συστήματα ΑΙ με ανθρώπινη ανταγωνιστική νοημοσύνη μπορούν να θέσουν βαθύτατους κινδύνους για την κοινωνία και την ανθρωπότητα», υπογραμμίζουν οι υπογράφοντες το κείμενο, ανάμεσα στους οποίους φιγουράρουν τα ονόματα του CEO της Tesla Ίλον Μασκ -ο οποίος είχε βοηθήσει αρχικά στο εγχείρημα- και του συνιδρυτή της Apple Στιβ Βόζνιακ. «Η προηγμένη τεχνητή νοημοσύνη θα μπορούσε να αποτελέσει μια βαθιά αλλαγή στην ιστορία της ζωής στη Γη και θα πρέπει να σχεδιαστεί και να τεθεί υπό διαχείριση με ανάλογη προσοχή και πόρους», αναφέρεται στην επιστολή. «Δυστυχώς, αυτό του είδους ο σχεδιασμός και η διαχείριση δεν υπάρχουν, παρόλο που τους τελευταίους μήνες τα εργαστήρια Τεχνητής Νοημοσύνης έχουν εγκλωβιστεί σε έναν ανεξέλεγκτο αγώνα δρόμου για την ανάπτυξη ολοένα και πιο ισχυρών ψηφιακών μυαλών που κανείς – ούτε καν οι δημιουργοί τους – δεν μπορεί να κατανοήσει, να προβλέψει ή να ελέγξει αξιόπιστα».

Άλλωστε, μεγάλος είναι ο φόβος ότι με τη βοήθεια της τεχνητής νοημοσύνης μπορούν να κατασκευαστούν εικόνες και βίντεο που θα παρουσιάζουν από καθημερινούς ανθρώπους μέχρι ηγέτες κρατών σε μια σειρά από πράξεις, με ανυπολόγιστες συνέπειες που κυμαίνονται από την προσωπική και επαγγελματική τους ζωή μέχρι το αποτέλεσμα μιας εκλογικής διαδικασίας.

Να δεις τι σου χω για μετά

Αξίζει να σημειωθεί ότι η πλειοψηφία των χρηστών αυτή τη στιγμή ερχόμαστε σε επαφή με το «ChatGPT 3.5». Όχι όμως για πολύ. Αυτό γιατί, το ChatGPT-4 έχει ήδη αρχίσει να προσφέρεται σε συνδρομητικές υπηρεσίες.

Η ιστορία με την οποία θα κλείσουμε αυτό το αφιέρωμα είναι ενδεικτική για το τι σημαίνει αυτή η εξέλιξη. Ο «Χ» ήταν ένας από τους πρώτους ανθρώπους που δοκίμασαν το «ChatGPT-4», προτού αυτό διατεθεί στο ευρύ κοινό. Δεσμευόταν μεν για τη σιωπή του, στο πλαίσιο συμφωνίας εμπιστευτικότητας με τη δημιουργό του μοντέλου, «OpenAI», αλλά παρόλα αυτά, πριν από λίγες ημέρες εξομολογήθηκε στους «New York Times» ότι η αλληλεπίδραση με το «ChatGPT-4» τού προκάλεσε υπαρξιακή κρίση, επειδή του αποκάλυψε πόσο ισχυρή και δημιουργική είναι η Τεχνητή Νοημοσύνη (ΤΝ), σε σχέση με τον «μικροσκοπικό» ανθρώπινο εγκέφαλό του.

Το αν η απόφαση του ανθρώπου να ανοίξει το κουτί της -τεχνολογικής- Πανδώρας θα αποδεχθεί σοφή ή καταστροφική θα το δείξει ο χρόνος. Το μόνο σίγουρο είναι ότι πλέον βαδίζουμε σε έναν δρόμο που η επιστροφή σε έναν κόσμο όπως αυτόν που γνωρίζαμε μέχρι τώρα, δεν είναι εφικτή.

 

 

Το άρθρο δημοσιεύθηκε στο STARTUPPER MAG #36

Μάθετε πρώτοι τα τελευταία νέα
Ακολουθήστε μας στο Google News και μάθετε πρώτοι όλες τις ειδήσεις