Kathimerini.gr
Τάσος Ντάφλος
Πολιτική αστάθεια, βαθύς διχασμός και σφοδρές στρατιωτικές συγκρούσεις ανοίγουν συνεχώς νέες «πληγές» πάνω στον παγκόσμιο χάρτη, προκαλώντας έναν χείμαρρο εξελίξεων που οδηγεί με τη σειρά του σε μια πληθώρα πληροφοριών τόσο στα παραδοσιακά ΜΜΕ όσο και στα μέσα κοινωνικής δικτύωσης.
«Η εκστρατεία της Κίνας στη Χαβάη δεν ήταν επιτυχημένη, καθώς δεν φάνηκε να έχει επιρροή σε σημαντικό αριθμό ανθρώπων, αποτελεί όμως ένα σημαντικό δίδαγμα για μια νέα απειλή».
Στην ταραγμένη αυτή εποχή, λοιπόν, που τα εργαλεία Τεχνητής Νοημοσύνης έχουν πλέον προστεθεί στο «οπλοστάσιο» της διάδοσης πληροφοριών, πόσο θα μπορούσε να μας βλάψει η συστηματική και οργανωμένη χρήση τους σε εκστρατείες προπαγάνδας και διασποράς ψευδών ειδήσεων;
Οι πυρκαγιές στη Χαβάη
Ερευνητές από τη Microsoft και άλλες εταιρείες τεχνολογίας καθώς και από το Πανεπιστήμιο του Μέριλαντ στις ΗΠΑ, έριξαν φως σε μια τέτοια εκστρατεία παραπληροφόρησης, της οποίας φαίνεται να ηγήθηκε η Κίνα, κατά τη διάρκεια των καταστροφικών πυρκαγιών στο νησί Μάουϊ της Χαβάης τον Αύγουστο του 2023.
Οπως προέκυψε, η Κίνα προσπάθησε – μέσω μιας σειράς ψευδών αναρτήσεων στα social media – να διασπείρει την πληροφορία ότι δεν επρόκειτο για φυσική καταστροφή αλλά για τον αντίκτυπο ενός μυστικού «μετεωρολογικού όπλου» των ΗΠΑ.
Προκειμένου μάλιστα να καταστούν πιο αληθοφανείς οι εν λόγω αναρτήσεις, συνοδεύονταν από φωτογραφίες που έμοιαζαν να έχουν δημιουργηθεί από προγράμματα Τεχνητής Νοημοσύνης, με την Κίνα να γίνεται μία από τις πρώτες χώρες που έχουν αξιοποιήσει τέτοιου είδους εργαλεία για να ενισχύσουν εκστρατείες παραπληροφόρησης.
«Αυτού του είδους οι εκστρατείες αποτελούν πλέον ένα τακτικό φαινόμενο σε παγκόσμιο επίπεδο, αν και [μέχρι σήμερα] στο μεγαλύτερο μέρος τους δεν συμπεριελάμβαναν τη χρήση Τεχνητής Νοημοσύνης», αναφέρει στην «Κ» ο Κίαν Βέστινσον, ερευνητής από τη δεξαμενή σκέψης Freedom House στην Ουάσιγκτον.
Και ενώ, όπως τονίζει ο Βέστινσον, η εκστρατεία της Κίνας στη Χαβάη δεν ήταν επιτυχημένη, καθώς δεν φάνηκε να έχει επιρροή σε σημαντικό αριθμό ανθρώπων, αποτελεί παράλληλα ένα σημαντικό δίδαγμα για μια νέα απειλή που ενδέχεται να μας απασχολήσει ακόμη πιο συχνά στο μέλλον.
«Είναι εμφανές από τις έρευνές μας, ότι οι κυβερνήσεις θα αυξήσουν τη χρήση εργαλείων A.I. για την παραγωγή κειμένου ή ήχου. Σε αυτές τις περιπτώσεις, η Τεχνητή Νοημοσύνη θα επιδεινώσει ακόμη περισσότερο την κατάσταση σε περιβάλλοντα που είναι ήδη ευάλωτα σε άλλες μορφές διαδικτυακής εξαπάτησης», εξηγεί ο ερευνητής.
Οι εκλογές σε Σλοβακία και Νιγηρία
Οπως σημειώνει, ανάλογα παραδείγματα έχουν παρατηρηθεί ήδη σε συνολικά 16 χώρες, όπου η Τεχνητή Νοημοσύνη χρησιμοποιήθηκε για να σπείρει την αμφιβολία σχετικά με εκλογικές αναμετρήσεις καθώς και για επιθέσεις από πολιτικούς εναντίον αντιπάλων τους.
Ο Βέστινσον κάνει μάλιστα αναφορά σε δύο συγκεκριμένες περιπτώσεις χρήσης της A.I. για προπαγανδιστικούς σκοπούς, και αυτές αφορούν τις εκλογές στη Σλοβακία τον περασμένο Σεπτέμβριο καθώς και εκείνες στη Νιγηρία τον Φεβρουάριο.
«Μια ημέρα πριν την ίδια την ψηφοφορία στη Σλοβακία, ένα ηχητικό απόσπασμα κυκλοφόρησε στα μέσα κοινωνικής δικτύωσης, στο οποίο ακουγόταν ένας εκ των βασικών υποψηφίων να κάνει λόγο για εξαγορά ψήφων από την κοινότητα των Ρομά», εξηγεί ο Βέστινσον.
«Ο υποψήφιος δήλωσε ότι το αρχείο ήταν ψεύτικο, ενώ ανεξάρτητοι ερευνητές επαλήθευσαν ότι επρόκειτο κατά πάσα πιθανότητα για υλικό που είχε υποστεί δολιοφθορά», προσθέτει ο ερευνητής. «Το γεγονός, ωστόσο, ότι αυτό το αρχείο ήρθε στη δημοσιότητα μια ανάσα πριν από τις εκλογές θα μπορούσε να έχει σοβαρές συνέπειες για την ίδια την αναμέτρηση».
Σύμφωνα με τον ίδιο, παρόμοιο παράδειγμα αποτελούν και οι εκλογές στη Νιγηρία τον περασμένο Φεβρουάριο. «Παρόμοια ηχητικά αποσπάσματα που είχαν υποστεί επεξεργασία με Τεχνητή Νοημοσύνη κυκλοφόρησαν στα social media, παρουσιάζοντας έναν υποψήφιο για την προεδρία να μιλά για νοθεία», σημειώνει.
«Στη Νιγηρία, οι ισορροπίες είναι ευαίσθητες, καθώς είναι μια χώρα με ιστορικό βίας κατά τη διάρκεια των εκλογών και αυτού του είδους το περιεχόμενο απείλησε να κλιμακώσει την κατάσταση και να επηρεάσει την εμπιστοσύνη στις ίδιες τις εκλογές», προσθέτει.
Το Μεσανατολικό και οι ανησυχίες για το μέλλον
Λαμβάνοντας λοιπόν υπόψιν τα παραπάνω και δεδομένων των συγκρούσεων που βρίσκονται σε πλήρη εξέλιξη τόσο στην Ουκρανία μετά τη ρωσική εισβολή τον Φεβρουάριο του 2022 όσο και στη Μέση Ανατολή μεταξύ του Ισραήλ και των ενόπλων της Χαμάς, προκύπτουν νέοι φόβοι για το κατά πόσο μια ενισχυμένη από την A.I. μορφή προπαγάνδας θα μπορούσε να δυναμιτίσει ακόμη περισσότερο ένα ήδη εκρηκτικό κλίμα.
Οπως επισημαίνει ο ίδιος, τα εργαλεία Τεχνητής Νοημοσύνης είναι προσβάσιμα σε ό,τι αφορά το κόστος και εύκολα στη χρήση και για τον λόγο αυτό, είναι πιθανή η ακόμη πιο εκτεταμένη χρήση τους στο μέλλον.
«Σε καιρούς κρίσεων, οι ψευδείς εικόνες μέσω A.I. που γεννούν έντονα συναισθήματα οργής, μπορούν να βαθύνουν τον διχασμό και την πόλωση ή ακόμα και να οδηγήσουν σε νέα ξεσπάσματα βίας»
Σημειώνεται ότι μετά από την επίθεση της Χαμάς στο Ισραήλ το περασμένο Σαββατοκύριακο, η οποία και πυροδότησε τις πρόσφατες φονικές συγκρούσεις στην περιοχή, τα μέσα κοινωνικής δικτύωσης έχουν ήδη πλημμυρίσει από ψευδείς ειδήσεις καθώς και από παραπλανητικές εικόνες και βίντεο που στέκονται εμπόδιο στην έγκυρη πληροφόρηση πολλών ανθρώπων ανά τον κόσμο.
Δεν υπάρχουν ακόμη, ωστόσο, αρκετά στοιχεία σχετικά με τον ρόλο της Α.Ι. σε αυτές τις προσπάθειες διασποράς μη έγκυρων πληροφοριών.
Νέα πρόκληση, νέες ευθύνες
Φαίνεται λοιπόν πως ανάμεσα στις αναρίθμητες προκλήσεις που καλείται να αντιμετωπίσει η διεθνής κοινότητα κατά την τρέχουσα περίοδο, έρχεται να προστεθεί και η επικίνδυνη πλευρά της A.I. που απειλεί να θολώσει ακόμη περισσότερο το τοπίο των social media, τα οποία είναι ήδη εξαιρετικά ευάλωτα στην παραπληροφόρηση.
«Οι εταιρείες έχουν ευθύνη να φροντίζουν ώστε τα προϊόντα τους να συνεισφέρουν σε ένα συμπεριληπτικό και αξιόπιστο πεδίο πληροφόρησης. Επιπλέον, οφείλουν να αναπτύξουν αποτελεσματικές μεθόδους επισήμανσης του περιεχομένου που έχει δημιουργηθεί με A.I. καθώς και να βρίσκονται σε συντονισμό τόσο μεταξύ τους όσο και με τις κυβερνήσεις για την καθιέρωση των παραπάνω μέτρων», αναφέρει ο Βέστινσον.
Παράλληλα, επισημαίνει, οι εταιρείες τεχνολογίας θα πρέπει να επενδύσουν στην ανάπτυξη λογισμικού που να μπορεί να εντοπίζει το περιεχόμενο που έχει κατασκευαστεί μέσω Τεχνητής Νοημοσύνης, καθώς τα εργαλεία αυτά θα είναι ζωτικής σημασίας για τη διασφάλιση της αξιοπιστίας των πληροφοριών σε καιρούς κρίσης.
«Σε επίπεδο κυβερνήσεων, έχουμε δει να γίνονται θετικά βήματα τόσο στις ΗΠΑ όσο και στην Ε.Ε. και είναι ενθαρρυντικό το γεγονός ότι οι ρυθμιστικές αρχές εργάζονται προς την κατεύθυνση της θέσπισης κανόνων», καταλήγει.
Ενώ λοιπόν οι μέχρι στιγμής προσπάθειες διασποράς ψευδών ειδήσεων μέσω της A.I. δεν φαίνεται να έχουν πετύχει τον σκοπό τους, η γοργή ανάπτυξη τέτοιων εργαλείων σε συνάρτηση με τις αλλεπάλληλες κρίσεις που ξεσπούν σε παγκόσμιο επίπεδο, αποτελούν «καμπανάκι» υπενθύμισης των σοβαρών προκλήσεων που φέρνουν ορισμένες πτυχές των νέων αυτών τεχνολογιών, καθιστώντας απαραίτητη μια συντονισμένη και στοχευμένη απάντηση προκειμένου να μην εξελιχθούν σε μια ακόμη κινητήριο δύναμη της αστάθειας, του διχασμού και του μίσους που δείχνουν να κερδίζουν συνεχώς έδαφος.