ΠΗΓΗ: Reuters
Το ευρωπαϊκό νομοσχέδιο για τη χρήση της Τεχνητής Νοημοσύνης αναμένεται να αποτελέσει ορόσημο σε ό,τι αφορά τη νομοθεσία της Ε.Ε. πάνω στον συγκεκριμένο τομέα τεχνολογίας.
Οι νομικές αρχές πρότειναν την ταξινόμηση των εργαλείων Τεχνητής Νοημοσύνης ανάλογα με το επίπεδο κινδύνου τους, από «χαμηλό» έως «ανεπίτρεπτο».
Ανάλογα με το ρίσκο λοιπόν, θα ποικίλουν και οι υποχρεώσεις των κυβερνήσεων και των εταιρειών που χρησιμοποιούν τα εν λόγω εργαλεία.
Τι καλύπτει το νομοσχέδιο;
Το εν λόγω σχέδιο νόμου είναι εκτεταμένο και θέτει κανονισμούς για οποιονδήποτε καθιστά διαθέσιμο ένα προϊόν ή μια υπηρεσία που χρησιμοποιεί Τεχνητή Νοημοσύνη. Το νομοσχέδιο θα καλύπτει συστήματα που μπορούν να παράγουν περιεχόμενο, προβλέψεις, προτάσεις ή αποφάσεις που θα επηρεάσουν τις κυβερνήσεις .
Πέρα από τη χρήση της Τεχνητής Νοημοσύνης από τις εταιρείες, το νομοσχέδιο εξετάζει και την αξιοποίησή της στο δημόσιο καθώς και στον τομέα της επιβολής του νόμου. Σημειώνεται επίσης ότι θα λειτουργεί σε συνδυασμό με άλλους νόμους όπως ο Γενικός Κανονισμός Προστασίας Δεδομένων (GDPR).
Όσοι χρησιμοποιούν συστήματα Τεχνητής Νοημοσύνης που αλληλεπιδρούν με τους χρήστες, που αξιοποιούνται για λόγους παρακολούθησης ή που παράγουν «σε μεγάλο βαθμό ψευδές» περιεχόμενο, θα πρέπει να τηρούν αυστηρές προϋποθέσεις σε ό,τι αφορά τη διαφάνεια.
Τι θεωρείται «υψηλός κίνδυνος»;
Υπάρχουν ορισμένα εργαλεία Τεχνητής Νοημοσύνης που μπορεί να θεωρηθούν ως «υψηλού κινδύνου», όπως εκείνα που χρησιμοποιούνται σε κρίσιμης σημασίας υποδομές, στην επιβολή του νόμου ή στην εκπαίδευση. Βρίσκονται, ωστόσο, ένα επίπεδο κάτω από τον χαρακτηρισμό τους ως «ανεπίτρεπτα» και συνεπώς δεν απαγορεύονται πλήρως.
Αντίθετα, όσοι χρησιμοποιούν Τεχνητή Νοημοσύνη που ενέχει υψηλό ρίσκο θα υποχρεούνται να πραγματοποιήσουν ενδελεχείς ελέγχους ασφαλείας, να καταγράφουν τις δραστηριότητές τους και να παρέχουν στοιχεία στις αρχές προκειμένου να τεθούν υπό εξέταση. Αυτό είναι πιθανό να συνεπάγεται αυξημένο κόστος για τις εταιρείες.
Κάποιες από τις κατηγορίες «υψηλού κινδύνου», στις οποίες η χρήση της Τεχνητής Νοημοσύνης θα βρίσκεται υπό αυστηρό έλεγχο, θα αφορούν τομείς όπως η επιβολή του νόμου, η μετανάστευση, οι υποδομές, οι ασφάλεια των προϊόντων και η Δικαιοσύνη.
Τι είναι το «GPAIS»;
Το GPAIS – δηλαδή Σύστημα Τεχνητής Νοημοσύνης Γενικού Σκοπού (General Purpose AI System) – είναι μια κατηγοριοποίηση που προτείνεται από τις νομικές αρχές για εργαλεία Τεχνητής Νοημοσύνης με περισσότερες από μία χρήσεις, όπως το ChatGPT.
Στην παρούσα φάση, οι αρχές συζητούν για το εάν όλες οι μορφές GPAIS θα εντάσσονται στην κατηγορία «υψηλού κινδύνου» καθώς και για το τι θα σήμαινε αυτό για τις εταιρείες τεχνολογίας που προσπαθούν να ενσωματώσουν την Τεχνητή Νοημοσύνη στα προϊόντα τους.
Το προσχέδιο του ευρωπαϊκού κανονισμού δεν αποσαφηνίζει ποιες θα είναι οι υποχρεώσεις των κατασκευαστών.
Τι θα ισχύει για τις εταιρείες – «παραβάτες»;
Σύμφωνα με τις προτάσεις που έχουν κατατεθεί, όσοι παραβούν τους κανονισμούς σχετικά με τη χρήση της Τεχνητής Νοημοσύνης θα βρίσκονται αντιμέτωποι με πρόστιμα έως και 30 εκατ. ευρώ ή έως και 6% των παγκόσμιων κερδών τους, στις περιπτώσεις που το ποσό αυτό είναι υψηλότερο.
Για μια εταιρεία όπως η Microsoft, η οποία στηρίζει την OpenAI που δημιούργησε το ChatGPT, αυτό θα μπορούσε να σημαίνει πρόστιμο μεγαλύτερο των 10 δισ. δολαρίων, σε περίπτωση παραβίασης του κανονισμού.
Πότε θα τεθεί σε ισχύ;
Παρ’ όλο που η βιομηχανία αναμένει την έγκριση του νομοσχεδίου εντός του έτους, δεν υπάρχει κάποια συγκεκριμένη προθεσμία. Οι βουλευτές συνεχίζουν τις συζητήσεις και όταν καταλήξουν σε συμφωνία, θα υπάρξει τριμερής διάλογος μεταξύ των εκπροσώπων του Ευρωπαϊκού Κοινοβουλίου, του Συμβουλίου της Ε.Ε. και της Ευρωπαϊκής Επιτροπής.
Μετά την οριστικοποίηση των όρων, θα υπάρξει μια περίοδος χάριτος περίπου δύο ετών ώστε να μπορέσουν να συμμορφωθούν με τους κανονισμούς τα μέρη που επηρεάζονται.