ΚΛΕΙΣΙΜΟ
Loading...
 

Τι συμβαίνει με την OpenAI – Ηχηρές παραιτήσεις και ερωτήματα

Οι παραιτήσεις των επικεφαλής ερευνητών ασφαλείας της εταιρείας OpenAI, που βρίσκεται πίσω από το ChatGPT, φέρνουν ξανά στο προσκήνιο το ντιμπέιτ σχετικά με το πόσο ασφαλείς είμαστε

Kathimerini.gr

Βασίλης Ανδριανόπουλος

Ο Τζαν Λέικ ήταν ο βασικός ερευνητής ασφαλείας στην εταιρεία OpenAI, η οποία βρίσκεται πίσω από το ChatGPT. Η προ ολίγων ημερών παραίτησή του –είχε προηγηθεί αυτή του συνιδρυτή της OpenAI, Ιλια Σουτσκέβερ- συνοδεύθηκε με αιχμές κατά της εταιρείας, ότι δεν δίνει έμφαση στην ασφάλεια των συστημάτων τεχνητής νοημοσύνης που παράγει. Τα δημόσια βέλη που ο Λέικ εξαπέλυσε προς την OpenAI, έρχονται σε μια εποχή όπου πληθώρα εταιρειών ανακοινώνουν τη δημιουργία ολοένα και πιο εξελιγμένων συστημάτων ΑΙ.

Η κατασκευή μηχανών πιο έξυπνων από τον άνθρωπο είναι μια εγγενώς επικίνδυνη προσπάθεια.

Κάποια από αυτά θα έχουν τη δυνατότητα ακόμη και να γνωρίσουν με κάθε λεπτομέρεια τη ζωή των χρηστών που τα παρακολουθούν. Ειδικοί επισημαίνουν ότι κινούμαστε σε αχαρτογράφητα νερά, ενώ η ρύθμιση των νέων συστημάτων φαντάζει επιβεβλημένη. Οπως άλλωστε επισημαίνεται σε πρόσφατη έκθεση που αφορά την ασφάλεια των προηγμένων συστημάτων ΑΙ, «τίποτα στο μέλλον της τεχνητής νοημοσύνης δεν είναι αναπόφευκτο».

«Εμφαση στα λαμπερά προϊόντα έναντι της ασφάλειας»

Πριν από μερικές ημέρες, ο Τζαν Λέικ, συν-επικεφαλής του τμήματος υπερπροσαρμογής της OpenAI, έγραψε στο X ότι η εταιρεία δίνει προτεραιότητα στα «λαμπερά προϊόντα» έναντι της ασφάλειας. Δεν δίστασε μάλιστα να αποκαλύψει ότι η παραίτησή του οφείλεται σε διαφωνίες που υπήρχαν εδώ και καιρό σχετικά με τις προτεραιότητες της εταιρείας, οι οποίες έφτασαν στο «σημείο θραύσης». Ο Λέικ υποστήριξε ότι η OpenAI θα έπρεπε να επενδύσει περισσότερους πόρους στην ασφάλεια, τον κοινωνικό αντίκτυπο και την εμπιστευτικότητα για τα επόμενα μοντέλα που θα κατασκευάσει.

Οπως έγραψε χαρακτηριστικά, «αυτά τα προβλήματα είναι αρκετά δύσκολο να λυθούν και ανησυχώ ότι δεν είμαστε σε τροχιά για να φτάσουμε εκεί», συμπληρώνοντας πως ήταν «όλο και πιο δύσκολο» για την ομάδα του να διεξάγει την έρευνά της. Αλλωστε, όπως σχολίασε, «η κατασκευή μηχανών πιο έξυπνων από τον άνθρωπο είναι μια εγγενώς επικίνδυνη προσπάθεια. Η OpenAI επωμίζεται μια τεράστια ευθύνη για λογαριασμό όλης της ανθρωπότητας».

O Τζαν Λεικ, ένα από τα 100 πιο επιδραστικά πρόσωπα παγκοσμίως σε ό,τι αφορά την τεχνητή νοημοσύνη σύμφωνα με το περιοδικό Time.

Απαντώντας σε όσα έγραψε ο Τζαν Λέικ, ο διευθύνων σύμβουλος της OpenAI, Σαμ Αλτμαν περιορίστηκε να γράψει πως «έχει δίκιο ότι έχουμε πολλά να κάνουμε. Εχουμε δεσμευθεί ότι θα το πράξουμε».

Από την πλευρά του, ο Ιλια Σουτσκέβερ που εκτός από συνιδρυτής ήταν και ο επικεφαλής επιστήμονας στην OpenAI, αλλά επίσης αποχώρησε από την εταιρεία, έγραψε σκωπτικά ότι είναι αισιόδοξος πως η εταιρεία θα αναπτύξει τεχνητή γενική νοημοσύνη, που θα είναι «ταυτόχρονα ασφαλής και ευεργετική».

Σύμφωνα με ανάρτηση της OpenAI τον περασμένο Ιούλιο, οι δύο προσφάτως παραιτηθέντες είχαν νευραλγικό ρόλο για την ασφάλεια των συστημάτων. Οπως έγραφε τότε η OpenAI «χρειαζόμαστε επιστημονικές και τεχνικές ανακαλύψεις για να κατευθύνουμε και να ελέγχουμε συστήματα τεχνητής νοημοσύνης πολύ πιο έξυπνα από εμάς… Για να λύσουμε αυτό το πρόβλημα εντός τεσσάρων ετών, ξεκινάμε μια νέα ομάδα, με επικεφαλής τους Ιλια Σουτσκέβερ και Τζαν Λέικ, και αφιερώνουμε το 20% του υπολογιστικού δυναμικού που έχουμε εξασφαλίσει μέχρι σήμερα σε αυτή την προσπάθεια». Λιγότερο από ένα χρόνο αργότερο, οι δύο επικεφαλής ασφαλείας αποχώρησαν.

«Δεν έχουμε λύση»

Στην ίδια ανακοίνωση, η OpenAI είχε αναφερθεί εκτενώς στα προβλήματα που αντιμετωπίζει, τα οποία τότε ήλπιζε ότι θα λυθούν από τους Σουτσκέβερ και Λέικ. Κι αυτό γιατί όπως χαρακτηριστικά γραφόταν, «επί του παρόντος, δεν έχουμε λύση για την καθοδήγηση ή τον έλεγχο μιας δυνητικά υπερ-ευφυούς τεχνητής νοημοσύνης και την αποτροπή της από το να αποστατήσει. Οι τρέχουσες τεχνικές μας για την ευθυγράμμιση της τεχνητής νοημοσύνης, όπως η ενισχυτική μάθηση από την ανθρώπινη ανατροφοδότηση, βασίζονται στην ικανότητα των ανθρώπων να επιβλέπουν την τεχνητή νοημοσύνη».

Οι άνθρωποι όμως σύμφωνα με την OpenAI, «δεν θα είναι σε θέση να εποπτεύουν αξιόπιστα συστήματα ΑΙ πολύ πιο έξυπνα από εμάς κι έτσι οι τρέχουσες τεχνικές ευθυγράμμισης δεν θα κλιμακωθούν στην υπερ-νοημοσύνη. Χρειαζόμαστε νέες επιστημονικές και τεχνικές αποκαλύψεις».

Στα 100 πιο επιδραστικά άτομα παγκοσμίως

Ηταν πριν από λιγότερο από ένα χρόνο όταν ο Τζαν Λέικ ανακηρυσσόταν ως ένα από τα πιο 100 πιο επιδραστικά πρόσωπα παγκοσμίως σε ό,τι αφορά την τεχνητή νοημοσύνη σύμφωνα με το περιοδικό Time.

Κατά την παρουσίασή του από το αμερικανικό περιοδικό, ο Λέικ εμφανιζόταν περισσότερο «αισιόδοξος από πολλούς που εργάζονται στην πρόληψη της καταστροφής η οποία σχετίζεται με την τεχνητή νοημοσύνη. Προτιμά να τονίζει πόσο μεγάλο περιθώριο υπάρχει για την ανθρώπινη δράση».

Οπως όμως υπογράμμισε, είναι ο άνθρωπος αυτός που θα έχει τον τελικό λόγο, καθώς, «οι άνθρωποι έχουν μεγάλη ευθύνη για το τι θα συμβεί και θα πρέπει να προσπαθήσουμε σκληρά να το κάνουμε να πάει καλά». Αλλωστε, σύμφωνα με τον ίδιο, «είναι, κατά μια έννοια, ευθύνη όλων μας, επειδή πιθανότατα θα χρειαστούν πολλοί άνθρωποι να συνεργαστούν και να πάρουν τις σωστές αποφάσεις τη σωστή στιγμή».

Καταγραφή κάθε ενέργειας του χρήστη

Οι δυο παραιτήσεις από την OpenAI έρχονται λίγες ημέρες πριν από την παγκόσμια σύνοδο κορυφής για την τεχνητή νοημοσύνη η οποία θα πραγματοποιηθεί στη Σεούλ στις 21 και 22 Μαΐου 2024. Ενα από τα σημαντικότερα αντικείμενα συζήτησης στη σύνοδο κορυφής αναμένεται να αποτελέσει το GPT-4o, το τελευταίο μοντέλο τεχνητής νοημοσύνης που παρουσίασε η OpenAI πριν από μερικές ημέρες και το οποίο θα διαμοιραστεί δωρεάν στο διαδίκτυο. Το συγκεκριμένο μοντέλο μπορεί μεταξύ άλλων να συμμετέχει σε παρατεταμένες συζητήσεις σχετικά με όσα βλέπει μέσα από τον φακό της κάμερας ή να μεταφράζει ζωντανά μεταξύ δύο διαφορετικών γλωσσών.

Σύμφωνα με τον Guardian, για ορισμένους εμπειρογνώμονες αυτή η νέα τεχνητή νοημοσύνη «θα αποτελέσει μια ανησυχητική υπενθύμιση των ανησυχιών τους σχετικά με την ταχεία πρόοδο της τεχνολογίας… Για άλλους η κυκλοφορία του GPT-4o θα είναι η επιβεβαίωση ότι η καινοτομία συνεχίζεται σε έναν τομέα που υπόσχεται οφέλη για όλους».

Αντίστοιχα, η Google, η Meta κι άλλες εταιρείες, έχουν παρουσιάσει ήδη τα δικά τους μοντέλα τεχνητής νοημοσύνης. Δεν είναι μόνο αυτό, αφού η OpenAI ήδη εργάζεται στο νέο της μοντέλο GPT-5, που θα λειτουργεί κι ως μηχανή αναζήτησης. Παράλληλα, η OpenAI βρίσκεται σε συζητήσεις με την Apple, προκειμένου το ChatGPT να μπει στα κινητά τηλέφωνα που παράγει.

Η αμερικανική εταιρεία Rewind έχει πάει ένα βήμα παραπέρα, καθώς εμπορεύεται ένα προϊόν το οποίο θα μπορεί να καταγράφει κάθε ενέργεια που κάνει ο χρήστης μπροστά από την οθόνη του υπολογιστή του. Στη συνέχεια, ένα σύστημα τεχνητής νοημοσύνης εκπαιδεύεται προκειμένου να γνωρίσει με κάθε λεπτομέρεια τη ζωή του χρήστη. Με τη χρήση μιας κάμερας και ενός μικροφώνου αυτό θα μπορεί να γίνει ακόμη κι αν ο χρήστης βρίσκεται εκτός σύνδεσης.

Σενάρια «απώλειας ελέγχου»

Μπορεί όλα αυτά να φαντάζουν σαν σενάριο ταινίας επιστημονικής φαντασίας, αλλά δεν είναι. Οι εταιρείες δαπανούν ήδη δισεκατομμύρια για την ανάπτυξη ολοένα και πιο εξελιγμένων συστημάτων τεχνητής νοημοσύνης. Είναι ενδεικτικό ότι σύμφωνα με όσα δήλωσε ο Νταν Ιβς, αναλυτής της αμερικανικής χρηματιστηριακής Wedbush Securities, η παγκόσμια δαπάνη για την κατασκευή συστημάτων τεχνητής νοημοσύνης θα ανέλθει για το 2024 στα 100 δισεκατομμύρια δολάρια και στο 1 τρισεκατομμύριο δολάρια για την επόμενη δεκαετία.

Στα πλαίσια της συνόδου κορυφής, συντάχθηκε διεθνής επιστημονική έκθεση σχετικά με την ασφάλεια της προηγμένης τεχνητής νοημοσύνης.

Σύμφωνα με την έκθεση, η τεχνητή νοημοσύνη μπορεί να έχει «σημαντικό αντίκτυπο» στην αγορά εργασίας καθώς εκτιμάται ότι στις προηγμένες οικονομίες, «εξαιτίας της επικράτησης των θέσεων εργασίας με προσανατολισμό στις γνωστικές εργασίες», το 60% των θέσεων εργασίας θα μπορούσε να επηρεαστεί από την τεχνητή νοημοσύνη γενικού σκοπού. Αυτό το ποσοστό στις αναδυόμενες οικονομίες μπορεί να φτάσει το 40%.

Αναφορικά με τα σενάρια «απώλειας ελέγχου», όπου η κοινωνία δεν θα μπορεί πλέον να περιορίσει τα συστήματα τεχνητής νοημοσύνης ακόμη και αν έχει καταστεί σαφές ότι προκαλούν ζημιά, στην έκθεση σημειώνεται ότι «υπάρχει ευρεία συναίνεση ότι η σημερινή τεχνητή νοημοσύνη γενικού σκοπού δεν έχει τις δυνατότητες να θέσει αυτόν τον κίνδυνο». Παρ’ όλα αυτά, «ορισμένοι ειδικοί πιστεύουν ότι οι τρέχουσες προσπάθειες για την ανάπτυξη αυτόνομης τεχνητής νοημοσύνης γενικού σκοπού –συστήματα που μπορούν να ενεργούν, σχεδιάζουν και να επιδιώκουν στόχους– θα μπορούσαν να οδηγήσουν σε απώλεια ελέγχου, εφόσον είναι επιτυχημένα».

Ως αποτέλεσμα, «το μέλλον της τεχνολογίας της τεχνητής νοημοσύνης γενικού σκοπού είναι αβέβαιο, με ένα ευρύ φάσμα πορειών που φαίνεται πιθανό ακόμα και στο εγγύς μέλλον, συμπεριλαμβανομένων τόσο των πολύ θετικών, όσο και των πολύ αρνητικών αποτελεσμάτων. Ομως τίποτα στο μέλλον της τεχνητής νοημοσύνης δεν είναι αναπόφευκτο. Θα είναι οι αποφάσεις των κοινωνίας και των κυβερνήσεων που θα καθορίσουν το μέλλον της».

ΣΧΟΛΙΑΣΤΕ

Άλλα άρθρα συγγραφέα

Kathimerini.gr

Νέα: Τελευταία Ενημέρωση