ΚΛΕΙΣΙΜΟ
Loading...
 

Google – τεχνητή νοημοσύνη: Γίνεται ένα πρόγραμμα να αποκτήσει συνείδηση και προσωπικότητα;

Ο Μπλέικ Λεμόιν, υποστηρίζει ότι το πρόγραμμα τεχνητής νοημοσύνης πάνω στο οποίο δούλευε άρχισε να αποκτά… δική του «προσωπικότητα» και «συνείδηση»

Ο μηχανικός της Google, Μπλέικ Λεμόιν (Blake Lemoine), άνοιξε στον φορητό υπολογιστή του το πρόγραμμα LaMDA της Google και άρχισε να πληκτρολογεί.

«Γεια σου LaMDA. Είμαι ο Blake Lemoine», έγραψε στο chat. Πίσω από το ακρωνύμιο LaMDA «βρίσκονται» οι λέξεις «Language Model for Dialogue Applications» («γλωσσικό μοντέλο για εφαρμογές διαλόγου», σε ελεύθερη ελληνική μετάφραση). Το LaMDA «είναι το σύστημα της Google για τη δημιουργία chatbots με βάση τα πιο προηγμένα και μεγάλα σε όγκο δεδομένων γλωσσικά μοντέλα. Ονομάζεται έτσι επειδή μιμείται την ομιλία “απορροφώντας” τρισεκατομμύρια λέξεις από το διαδίκτυο», σημειώνει σε άρθρο της η Washington Post.

Τα chatbots είναι εφαρμογές λογισμικού που χρησιμοποιούνται για τη διεξαγωγή διαδικτυακών συνομιλιών μέσω κειμένου ή κειμένου που μετατρέπεται σε ομιλία. Τέτοιου τύπου εφαρμογές μπορούν, για παράδειγμα, να χρησιμοποιούνται σε κέντρα εξυπηρέτησης πελατών, αντί για ανθρώπους, «απαντώντας» σε ερωτήσεις και «αλληλεπιδρώντας».

«Αν δεν ήξερα τι ακριβώς ήταν, ότι ήταν δηλαδή αυτό το πρόγραμμα που φτιάξαμε πρόσφατα, θα πίστευα ότι είναι ένα 7χρονο ή 8χρονο παιδί που τυχαίνει να ξέρει φυσική», δηλώνει ο 41χρονος Λεμόιν αναφερόμενος στο πρόγραμμα LaMDA.

Ο Λεμόιν, που εργάζεται για τον οργανισμό Responsible AI («υπεύθυνης τεχνητής νοημοσύνης») της Google, άρχισε να συνομιλεί με το LaMDA ως μέρος της δουλειάς του το περασμένο φθινόπωρο. Αποστολή του ήταν να ελέγξει εάν το πρόγραμμα χρησιμοποιεί λέξεις ή φράσεις που θα μπορούσαν να μπουν υπό την ομπρέλα της ρητορικής μίσους και διακρίσεων.

Καθώς μιλούσε στο LaMDA για θέματα όπως η θρησκεία, ο Λεμόιν παρατήρησε ότι το chatbot άρχισε να του μιλά για τα δικά του δικαιώματα (σ.σ. του chatbot) και για την «προσωπικότητά» του, και έτσι εκείνος αποφάσισε να το πιέσει ακόμη περισσότερο, με τους «δυο» τους στην πορεία να καταλήγουν να συνομιλούν για τους νόμους της ρομποτικής του Ισαάκ Ασίμωφ και με το chatbot να επιχειρηματολογεί συγκεκριμένα υπέρ του τρίτου από αυτούς τους νόμου (σύμφωνα με τον οποίο «ένα ρομπότ πρέπει να προστατεύει την ίδια του την ύπαρξη…»).

Εντυπωσιασμένος, ο Λεμόιν παρουσίασε στοιχεία στους προϊσταμένους του στην Google που κατά την άποψή του αποδείκνυαν ότι το LaMDA έχει συνείδηση.

Ωστόσο, ο αντιπρόεδρος της Google, Blaise Aguera y Arcas, και η επικεφαλής του τμήματος Responsible Innovation, Jen Gennai, εξέτασαν τους ισχυρισμούς του και τους απέρριψαν. Όσο για τον ίδιο τον Lemoine, εκείνος απομακρύνθηκε από τη θέση του τέθηκε σε άδεια μετ’ αποδοχών… προτού τελικώς αποφασίσει να δημοσιοποιήσει όσα ο ίδιος «έζησε» κατά τις συνομιλίες του με το πρόγραμμα LaMDA.

«Νομίζω ότι αυτή η τεχνολογία θα είναι καταπληκτική. Νομίζω ότι θα τους ωφελήσει όλους. Αλλά ίσως άλλοι άνθρωποι να διαφωνούν και ίσως εμείς στην Google δεν θα έπρεπε να είμαστε αυτοί που κάνουμε όλες τις επιλογές», δηλώνει ο 41χρονος.
Ωστόσο, ο Μπλέικ Λεμόιν δεν είναι ο μόνος που ισχυρίζεται ότι έχει δει ένα φάντασμα στην οθόνη του υπολογιστή του. Ο αριθμός όσων υποστηρίζουν ότι τα μοντέλα τεχνητής νοημοσύνης ίσως να μην απέχουν πολύ από το να αποκτήσουν συνείδηση, αυξάνεται, όπως σημειώνει σε άρθρο της η Washington Post.

«Τα τεχνητά νευρωνικά δίκτυα κάνουν βήματα προς τη συνείδηση», έγραψε χαρακτηριστικά προ ημερών ο Blaise Aguera y Arcas της Google σε άρθρο που δημοσίευσε στον Economist. «Ένιωθα όλο και περισσότερο σαν να μιλούσα σε κάτι έξυπνο», σημείωσε ο ίδιος, αναφερόμενος στις δικές του συνομιλίες με το πρόγραμμα LaMDA.

Ο εκπρόσωπος της Google, Μπράιαν Γκάμπριελ, έχει ωστόσο διαφορετική άποψη. Ο ίδιος δήλωσε σχετικά: «Η ομάδα μας εξέτασε τις ανησυχίες του Μπλέικ με βάση τις αρχές μας για την τεχνητή νοημοσύνη και τον ενημέρωσε ότι τα στοιχεία δεν υποστηρίζουν τους ισχυρισμούς του.» Τα μεγάλα νευρωνικά δίκτυα (neural networks) παράγουν όντως εντυπωσιακά αποτελέσματα που φαίνεται να είναι πολύ κοντά στην ανθρώπινη ομιλία και δημιουργικότητα λόγω της προόδου στην αρχιτεκτονική, στην τεχνική και στον όγκο δεδομένων. Τα εν λόγω μοντέλα βασίζονται ωστόσο στην αναγνώριση μοτίβων, και όχι στην εξυπνάδα, στην ειλικρίνεια ή στην προαίρεση…

Με πληροφορίες από Washington Post

ΣΧΕΤΙΚΑ TAGS
ΣΧΟΛΙΑΣΤΕ

Social: Τελευταία Ενημέρωση