ΚΛΕΙΣΙΜΟ
Loading...
 

O CEO της Google «δεν κοιμάται τα βράδια» ανησυχώντας για την Τεχνητή Νοημοσύνη

Ο Σούνταρ Πιτσάι θεωρεί πως για την Τεχνητή Νοημοσύνη θα χρειαστεί ένα παγκόσμιο ρυθμιστικό πλαίσιο, παρόμοιο με αυτό για τον έλεγχο των πυρηνικών όπλων.

Ο διευθύνων σύμβουλος της Google, Σούνταρ Πιτσάι, δήλωσε πως οι ανησυχίες του για την Τεχνητή Νοημοσύνη «τον κρατούν ξύπνιο τη νύχτα», προσθέτοντας πως η τεχνολογία αιχμής θα μπορούσε να αποδειχθεί «πολύ επιβλαβής» αν εφαρμοστεί με λανθασμένα.

Ο Πιτσάι θεωρεί πως για την Τεχνητή Νοημοσύνη θα χρειαστεί ένα παγκόσμιο ρυθμιστικό πλαίσιο, παρόμοιο με αυτό για τον έλεγχο των πυρηνικών όπλων. Ο επικεφαλής της Google αναγνωρίζει πως ο ανταγωνισμός στον τεχνολογικό κλάδο, θα μπορούσε παραμερίσει τον προβληματισμό για ζητήματα ασφαλείας.

Σε συνέντευξή που παραχώρησε στην εκπομπή 60 minutes του CBS, ο Πιτσάι είπε πως οι κυβερνήσεις θα πρέπει να καταστρώσουν παγκόσμια ρυθμιστικά πλαίσια παράλληλα με την ανάπτυξη των συστημάτων AI.

Πριν περίπου δύο εβδομάδες, το ζήτημα των δυνητικών κινδύνων των Α.Ι. επανήλθε στη δημόσια σφαίρα, όταν περισσότεροι από 1.000 ερευνητές και ηγετικές μορφές του τεχνολογικού κλάδου, μεταξύ των οποίων ο Ελον Μασκ και ο συνιδρυτής της Apple Στιβ Βόνιακ, ζήτησαν εξάμηνη «παύση» στην ανάπτυξη μιας ισχυρής τεχνολογίας Α.Ι.. Σε δημόσια επιστολή τους, ανέφεραν η τεχνολογία αυτή θα μπορούσε να συνοδευτεί από «σοβαρότατους κινδύνους για την κοινωνία και την ανθρωπότητα».

Στη μητρική εταιρεία της Google, την Alphabet, ανήκει η εταιρεία τεχνητής νοημοσύνης DeepMind με έδρα το Ηνωμένο Βασίλειο. Η Google έχει ήδη λανσάρει ένα chatbot με τεχνητή νοημοσύνη, το Bard, επιχειρώντας να «απαντήσει» στο δημοφιλές ChatGPT και τη συμφωνία δισεκατομμυρίων της OpenAI με τη Microsoft.

Ο Πιτσάι υπογραμμίζει ότι η τεχνητή νοημοσύνη θα μπορούσε να προκαλέσει προβλήματα, λόγω των δυνατοτήτων για παραπληροφόρηση. «Με την τεχνητή νοημοσύνη θα είναι εφικτό να δημιουργηθεί εύκολα ένα βίντεο, όπου θα μπορούσε να φαίνεται ο Σκοτ (σ.σ Σκοτ Πέλεϊ, ο δημοσιογράφος του CBS που του πήρε τη συνέντευξη) να λέει κάτι, ή εγώ να λέω κάτι, που ποτέ δεν είπαμε. Και θα μπορούσε να είναι αληθοφανές. Σε κοινωνική κλίμακα μπορεί να προκαλέσει μεγάλη ζημιά».

Ο επικεφαλής της Google υποστήριξε ότι η έκδοση της τεχνολογίας τεχνητής νοημοσύνης της που είναι τώρα διαθέσιμη στο κοινό, μέσω του chatbot Bard, είναι ασφαλής. Πρόσθεσε ότι η Google συμπεριφέρεται υπεύθυνα, και δεν λανσάρει στο κοινό προηγμένες εκδόσεις του Bard, προκειμένου να δοκιμαστούν.

NYT: Η ασφάλεια θυσιάστηκε λόγω ταχύτητας
Πριν λίγα 24ωρα, οι New York Times αποκάλυπταν πως η Google κυκλοφόρησε το Bard μετά από χρόνια εσωτερικών διαφωνιών σχετικά με το αν τα οφέλη των Α.Ι. υπερτερούσαν των κινδύνων. Το 2020, ο τεχνολογικός κολοσσός είχε ανακοινώσει και τη Meena, ένα παρόμοιο chatbot, αλλά εκείνο το σύστημα είχε κριθεί, τελικώς, πολύ επικίνδυνο για να κυκλοφορήσει, όπως δήλωσαν τρία άτομα με γνώση της υπόθεσης. Οι ανησυχίες αυτές αποκαλυφθεί νωρίτερα από την Wall Street Journal.

«Η Google ήταν ενήμερη»
Σύμφωνα πάντα με τους NYT, η Google παρεμπόδισε δύο από τις κορυφαίες ερευνήτριές της σε ζητήματα ηθικής και τεχνητής νοημοσύνης, τις Τίνιτ Γκέμπρου και Μάργκαρετ Μίτσελ, από το να δημοσιεύσουν μια εργασία που προειδοποιούσε ότι τα μεγάλα γλωσσικά μοντέλα που χρησιμοποιούνται στα νέα συστήματα Α.Ι, θα μπορούσαν να εξαπολύσουν υβριστική γλώσσα.

Τον Ιανουάριο του 2022, η Google προσπάθησε να αποτρέψει έναν άλλο ερευνητή, τον Δρ. Ελ Μαχντί, από το να δημοσιεύσει μια επικριτική μελέτη, σύμφωνα με τους NYT.

«Δεν καταλαβαίνουμε πλήρως ούτε το δικό μας σύστημα ΑΙ»
Τώρα ο Πιτσάι παραδέχεται πως η Google δεν κατανοούσε απολύτως τον τρόπο με τον οποίο το δικό της σύστημα τεχνητής νοημοσύνης ανταποκρινόταν σε ορισμένες περιπτώσεις. «Υπάρχει μια πτυχή αυτού του φαινομένου την οποία, όλοι εμείς στον τομέα, την αποκαλούμε «μαύρο κουτί». Δεν το καταλαβαίνουμε πλήρως. Και δεν μπορούμε να πούμε ακριβώς γιατί είπε κάτι ή γιατί έκανε κάποιο λάθος».

Ερωτηθείς από τον δημοσιογράφο του CBS γιατί η Google κυκλοφόρησε το Bard, ενώ δεν κατανοούσε πλήρως πώς λειτουργεί, ο Πιτσάι απάντησε: «Επιτρέψτε μου να το θέσω έτσι. Δεν νομίζω ότι καταλαβαίνουμε πλήρως ούτε το πώς λειτουργεί το ανθρώπινο μυαλό».

Ο Πιτσάι αναγνωρίζει ότι η κοινωνία δεν φαίνεται να είναι έτοιμη για τις ραγδαίες εξελίξεις στην τεχνητή νοημοσύνη. «Φαίνεται να υπάρχει αναντιστοιχία» μεταξύ του ρυθμού με τον οποίο η κοινωνία σκέφτεται και προσαρμόζεται στις αλλαγές σε σύγκριση με τον ρυθμό με τον οποίο εξελίσσεται η τεχνητή νοημοσύνη. Ωστόσο, πρόσθεσε ότι «τουλάχιστον οι άνθρωποι έχουν αρχίσει να αντιλαμβάνονται τους πιθανούς κινδύνους της πιο γρήγορα».

«Σε σύγκριση με οποιαδήποτε άλλη τεχνολογία, έχω δει περισσότερους ανθρώπους να ανησυχούν γι’ αυτήν νωρίτερα στον κύκλο ζωής της. Επομένως, αισθάνομαι αισιόδοξος».

Ο Πιτσάι δήλωσε ότι ο οικονομικός αντίκτυπος της Τεχνητής Νοημοσύνης θα είναι σημαντικός και θα επηρεάσει τα πάντα. «Κάθε προϊόν σε κάθε εταιρεία». Αναφερόμενος, για παράδειγμα, στον κλάδο της ιατρικής, ο Πιτσάι είπε ότι σε πέντε έως 10 χρόνια από σήμερα, ένας ακτινολόγος θα μπορούσε να συνεργάζεται με έναν βοηθό Τεχνητής Νοημοσύνης, για την ιεράρχηση των περιστατικών. Ο ίδιος εκτιμά πως μεταξύ των επαγγελμάτων που θα επηρεαστούν είναι οι συγγραφείς, οι λογιστές, οι αρχιτέκτονες και οι προγραμματιστές.

Πηγή: Guardian

ΣΧΕΤΙΚΑ TAGS
ΣΧΟΛΙΑΣΤΕ

Geek: Τελευταία Ενημέρωση

X