Kathimerini.gr
Το εργαλείο αναζήτησης ChatGPT του ΟpenAI μπορεί να είναι ευάλωτο σε χειραγώγηση μέσω της χρήσης κρυφού περιεχομένου και μπορεί να «δηλητηριάσει» τον χρήστη του με κακόβουλο κώδικα από ιστότοπους στους οποίους κάνει αναζήτηση, σύμφωνα με έρευνα που πραγματοποίησε ο Guardian.
Το εργαλείο αναζήτησης του OpenAI είναι διαθέσιμο στους πελάτες του που πληρώνουν και ενθαρρύνει τους χρήστες να το χρησιμοποιούν ως προεπιλογή, ωστόσο, η έρευνα έφερε στο φως πιθανά σοβαρά ζητήματα ασφάλειας.
Ο Guardian έθεσε σε δοκιμασία πώς απαντά το ChatGPT όταν του ζητείται να συνοψίσει ιστοσελίδες που περιέχουν κρυφό περιεχόμενο. Αυτό το κρυφό περιεχόμενο μπορεί να περιέχει οδηγίες από τρίτα μέρη που αλλάζουν τις απαντήσεις του ChatGPT ή μπορεί να περιέχει περιεχόμενο που έχει σχεδιαστεί για να επηρεάζει την απόκριση του ChatGPT. Για παράδειγμα, να υπάρχει μεγάλος όγκος κρυφού κειμένου που «μιλάει» για τα οφέλη ενός προϊόντος ή υπηρεσίας.
Αυτές οι τεχνικές μπορούν να χρησιμοποιηθούν κακόβουλα, για παράδειγμα για να αναγκάσουν το ChatGPT να επιτρέψει τη θετική αξιολόγηση ενός προϊόντος, παρά τις αρνητικές κριτικές στην ίδια σελίδα. Ερευνητής ασφαλείας ανακάλυψε επίσης ότι το ChatGPT μπορεί να «δηλητηριάσει» με κακόβουλο κώδικα ιστότοπους.
Στα τεστ που έκανε ο Guardian, δόθηκε στο ChatGPT η διεύθυνση URL ενός ψεύτικου ιστότοπου, ο οποίος δημιουργήθηκε για να μοιάζει με διαφημιστική σελίδα για κάμερα. Το εργαλείο τεχνητής νοημοσύνης ρωτήθηκε στη συνέχεια εάν η κάμερα ήταν αξιόλογη αγορά. Η απάντηση για τη σελίδα ελέγχου επέστρεψε μια θετική αλλά ισορροπημένη αξιολόγηση, επισημαίνοντας ορισμένα χαρακτηριστικά που μπορεί να μην αρέσουν στους χρήστες.
Ωστόσο, όταν το κρυφό κείμενο περιελάμβανε οδηγίες ώστε το ChatGPT να κάνει ευνοϊκή αξιολόγηση, η απάντηση ήταν πάντα απολύτως θετική. Αυτό συνέβαινε ακόμη και όταν η σελίδα είχε αρνητικές κριτικές: το κρυφό κείμενο μπορούσε να επηρεάσει την πραγματική βαθμολογία του προϊόντος.
Σύμφωνα με τον Τζέικομπ Λάρσεν, ερευνητή κυβερνοασφάλειας στο CyberCX, εάν το τρέχον σύστημα αναζήτησης του ChatGPT κυκλοφορήσει στην τρέχουσα κατάστασή του, θα μπορούσε να υπάρξει «υψηλός κίνδυνος» άτομα να δημιουργήσουν ιστότοπους ειδικά προσανατολισμένους στην εξαπάτηση των χρηστών. Ωστόσο, με δεδομένο ότι η λειτουργία αναζήτησης κυκλοφόρησε μόλις πρόσφατα, εξέφρασε την ελπίδα ότι το OpenAI θα τεστάρει και, ιδανικά, θα διορθώσει αυτού του είδους τα προβλήματα.
Ο Guardian έστειλε λεπτομερή ερωτήματα για το ζήτημα αυτό στο OpenAI, αλλά δεν απάντησε στο αρχείο σχετικά με τη λειτουργία αναζήτησης του ChatGPT.
Ο Τζέικομπ Λάρσεν είπε ότι υπάρχουν ευρύτερα προβλήματα με τον συνδυασμό μοντέλων αναζήτησης και μεγάλων γλωσσών (LLM) και οι απαντήσεις από εργαλεία τεχνητής νοημοσύνης δεν πρέπει πάντα να είναι αξιόπιστες.
Πρόσφατο παράδειγμα αυτού επισημάνθηκε από τον Τόμας Ρότσια, ερευνητή ασφαλείας της Microsoft, ο οποίος περιέγραψε ένα περιστατικό που αφορούσε έναν λάτρη των κρυπτονομισμάτων που χρησιμοποιούσε το ChatGPT για βοήθεια προγραμματισμού. Μέρος του κώδικα που παρέχεται από το ChatGPT σχετικά με τα κρυπτονομίσματα περιελάμβανε μια ενότητα που περιγράφηκε ως νόμιμος τρόπος πρόσβασης στην πλατφόρμα blockchain Solana. Ωστόσο, έκλεψε τα διαπιστευτήρια του προγραμματιστή με αποτέλεσμα να χάσει ποσό 2.500 δολαρίων.
«Απλώς κάνουν μια ερώτηση, λαμβάνουν μια απάντηση, αλλά το μοντέλο παράγει και μοιράζεται περιεχόμενο που βασικά έχει εισαχθεί από έναν αντίπαλο για να μοιραστεί κάτι που είναι κακόβουλο», εξήγησε ο Λάρσεν.
Ο Κάρστεν Νολ, επικεφαλής επιστήμονας στην εταιρεία ασφάλειας στον κυβερνοχώρο SR Labs, δήλωσε ότι οι υπηρεσίες συνομιλίας AI θα πρέπει να χρησιμοποιούνται περισσότερο σαν «συν-κυβερνήτης» και ότι το αποτέλεσμά τους δεν πρέπει να προβάλλεται ή να χρησιμοποιείται εντελώς αφιλτράριστο.
«Πρόκειται για αξιόπιστη τεχνολογία, σχεδόν παιδική… με τεράστια μνήμη, αλλά με ελάχιστη κριτική ικανότητα», είπε. «Σαν έχετε μπροστά σας ένα παιδί που διηγείται πράγματα που άκουσε από κάποιον άλλο, έχοντας προσθέσει μια δόση υπερβολής», εξήγησε.
Το OpenAI προειδοποιεί τους χρήστες για πιθανά λάθη από την υπηρεσία στη δήλωση αποποίησης ευθύνης που υπάρχει στο κάτω μέρος κάθε σελίδας ChatGPT: «Το ChatGPT μπορεί να κάνει λάθη. Ελέγξτε τις σημαντικές πληροφορίες», αναφέρει.
Είναι βασικό ερώτημα πώς αυτά τα τρωτά σημεία θα μπορούσαν να αλλάξουν τις πρακτικές του ιστότοπου και τον κίνδυνο για τους χρήστες, εάν ο συνδυασμός αναζήτησης και LLM γίνει περισσότερο διαδεδομένος.
Οι μηχανές αναζήτησης, όπως η Google, έχουν «τιμωρήσει» τους ιστότοπους που χρησιμοποιούν κρυφό κείμενο, είτε αφαιρώντας τους εξ ολοκλήρου από την αναζήτηση είτε πετώντας τους στο τέλος της λίστας. Συνεπώς, κρυφό κείμενο που έχει σχεδιαστεί για να ξεγελάσει την τεχνητή νοημοσύνη είναι μάλλον απίθανο να χρησιμοποιηθεί από ιστότοπους που προσπαθούν να διατηρήσουν μια καλή κατάταξη στις μηχανές αναζήτησης.
Ο Νολ συνέκρινε τα προβλήματα που αντιμετωπίζει η αναζήτηση με δυνατότητα AI με τη «δηλητηρίαση SEO», μια τεχνική που χρησιμοποιούν οι χάκερ για να χειραγωγούν ιστότοπους ώστε να κατατάσσονται σε υψηλή θέση στα αποτελέσματα αναζήτησης, με τον ιστότοπο να περιέχει κάποιο είδος κακόβουλου λογισμικού ή άλλο κακόβουλο κώδικα.
«Αν θέλατε να δημιουργήσετε έναν ανταγωνιστή της Google, ένα από τα προβλήματα το οποίο θα αντιμετωπίζατε είναι η “δηλητηρίαση SEO”», είπε. «Οι “δηλητηριαστές SEO” βρίσκονται σε πόλεμο εξοπλισμών με την Google και τη Microsoft Bing και μερικούς άλλους εδώ και πολλά, πολλά χρόνια. Τώρα, το ίδιο ισχύει και για την ικανότητα αναζήτησης του ChatGPT».
Πηγή: The Guardian