Η ΕΕ αγωνίζεται να ανταποκριθεί στην εμφάνιση του ChatGPT και άλλων ταχέως εξελισσόμενων μοντέλων τεχνητής νοημοσύνης (ΑΙ) – βάζοντάς την σε μια πιθανή πορεία σύγκρουσης με τις ΗΠΑ.
Ο Λευκός Οίκος έχει δημοσιεύσει ορισμένες αρχές για τη διατήρηση της τεχνητής νοημοσύνης σε ασφαλή επίπεδο και η Κίνα έχει προχωρήσει με σχέδια κανόνων που έχουν δημιουργηθεί για να διασφαλίσουν ότι η νέα τεχνολογία συμμορφώνεται με τους αυστηρούς κανόνες λογοκρισίας της χώρας. Αλλά η ΕΕ θέλει να θέσει ένα νομικά δεσμευτικό παγκόσμιο πρότυπο. Σύμφωνα με τον κανονισμό της ΕΕ, οι εφαρμογές τεχνητής νοημοσύνης που αποτελούν απαράδεκτο κίνδυνο θα απαγορευθούν και θα επιβληθούν αυστηροί κανόνες σε περιπτώσεις υψηλού κινδύνου.
Στο επίκεντρο της τελικής συζήτησης στο Ευρωκοινοβούλιο βρέθηκε το πού να χαραχτεί μια γραμμή για το ποιες εφαρμογές τεχνητής νοημοσύνης πρέπει να εγκριθούν και τι πρέπει να απαγορευθεί. Το κύριο σημείο της διαμάχης αφορούσε την αναγνώριση προσώπου και τον τρόπο εξισορρόπησης της ασφάλειας, ελαχιστοποιώντας τον κίνδυνο μαζικής παρακολούθησης. Οι ευρωβουλευτές έκαναν παζάρια για τη χρήση σε πραγματικό χρόνο απομακρυσμένης βιομετρικής ταυτοποίησης, ενός τύπου αυτοματοποιημένης επιτήρησης που παρακολουθεί πρόσωπα, σώματα και κινήσεις.
Οι Συντηρητικοί βουλευτές ήθελαν τροποποιήσεις που θα επέτρεπαν τη χρήση βιομετρικής ταυτοποίησης σε πραγματικό χρόνο, σε τρεις εξαιρετικές περιπτώσεις: Για την εύρεση ενός αγνοούμενου, την πρόληψη τρομοκρατικής επίθεσης ή τον εντοπισμό του υπόπτου για σοβαρό έγκλημα. Στον αντίποδα, οι αριστεροί ευρωβουλευτές κατέθεσαν τροπολογία για πλήρη απαγόρευση. Ο τελικός συμβιβασμός ήταν η απαγόρευση της χρήσης της τεχνολογίας σε πραγματικό χρόνο, επιτρέποντάς την σε έρευνες για σοβαρά εγκλήματα, μετά από έγκριση δικαστικής αρχής.
Το λανσάρισμα του ChatGPT και άλλων μεγάλων μοντέλων ΑΙ που μπορούν να απαντήσουν σε ένα ευρύ φάσμα ερωτήσεων με κείμενο, εικόνες και βίντεο, μετέτρεψαν το τεχνικό ζήτημα σε έναν ιδιαίτερα φορτισμένο πολιτικό θέμα. Οι ευρωβουλευτές συμφώνησαν να εισαγάγουν συγκεκριμένες νομοθετικές δεσμεύσεις για τις υπηρεσίες τύπου ChatGPT, συμπεριλαμβανομένης της απαίτησης για δημοσίευση λεπτομερούς περίληψης των δεδομένων που καλύπτονται από τη νομοθεσία περί πνευματικών δικαιωμάτων. Η ιδέα είναι να δοθεί στους κατόχους δικαιωμάτων η ευχέρεια να μπορούν να ζητήσουν πληρωμές από εταιρείες τεχνητής νοημοσύνης, σύμφωνα με τους κανόνες της ΕΕ για τα πνευματικά δικαιώματα.
Μια άλλη «καυτή» συζήτηση περιστράφηκε γύρω από το ποιες εφαρμογές ΑΙ αποτελούν απαράδεκτο κίνδυνο. Όταν προτάθηκε για πρώτη φορά, ο κατάλογος τους ήταν περιορισμένος. Κατά τη διάρκεια της κοινοβουλευτικής συζήτησης επεκτάθηκε. Οι εφαρμογές υψηλού κινδύνου δεν περιλαμβάνουν πλέον μόνο συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται σε υποδομές ζωτικής σημασίας, αλλά και σε συστήματα μέσων κοινωνικής δικτύωσης. Οι προγραμματιστές τους θα πρέπει να πραγματοποιήσουν αξιολογήσεις κινδύνου πριν τις θέσουν σε χρήση. Αυτές οι εκτιμήσεις κινδύνου περιλαμβάνουν όχι μόνο τον αντίκτυπο στην ιδιωτική ζωή και τα θεμελιώδη ανθρώπινα δικαιώματα, αλλά και την παρακολούθηση των επιπτώσεων στο ανθρώπινο περιβάλλον.
Αμερικανικές αντιδράσεις
Από την άλλη πλευρά του Ατλαντικού ήδη άρχισαν οι αντιδράσεις, από τις αμερικανικές επιχειρήσεις τεχνολογίας. Η Ένωση Βιομηχανίας Υπολογιστών & Επικοινωνιών (CCIA), εξέφρασε την ανησυχία της ότι ο νόμος του Ευρωκοινοβουλίου θα επιβραδύνει την πρόοδο της τεχνητής νοημοσύνης. «Το να κάνουμε την τεχνητή νοημοσύνη να λειτουργεί για τους ανθρώπους δεν αφορά μόνο την αντιμετώπιση πιθανών κινδύνων. Σημαίνει επίσης ότι η προώθηση της καινοτομίας πρέπει να βρίσκεται στον πυρήνα του νέου κανονισμού», δήλωσε η CCIA.
Το τελικό κείμενο του νόμου θα αποτελέσει αντικείμενο διαπραγμάτευσης μεταξύ βουλευτών, εκπροσώπων των κυβερνήσεων της ΕΕ και της Ευρωπαϊκής Επιτροπής. Ένας πρώτος τριμερής διάλογος είχε προγραμματιστεί να πραγματοποιηθεί αμέσως μετά την ψηφοφορία του Ευρωπαϊκού Κοινοβουλίου και οι Ευρωπαίοι αξιωματούχοι ελπίζουν να ολοκληρώσουν το κείμενο πριν από το τέλος του έτους. Η Ισπανία, η οποία αναλαμβάνει την εκ περιτροπής προεδρία της ΕΕ τον Ιούλιο, έχει καταστήσει την ολοκλήρωση του νόμου περί τεχνητής νοημοσύνης ως κορυφαία ψηφιακή προτεραιότητά της.
Και ενώ οι βουλευτές της Ευρώπης ψήφισαν, η ώθηση για την υπογραφή της πρώτης συνθήκης για την τεχνητή νοημοσύνη στον κόσμο παραπαίει. Το Συμβούλιο της Ευρώπης, ο διεθνής οργανισμός που είναι υπεύθυνος για την προάσπιση των ανθρωπίνων δικαιωμάτων στις 46 συμμετέχουσες χώρες του, καθώς και παρατηρητές, συμπεριλαμβανομένων των Ηνωμένων Πολιτειών, του Καναδά, του Ισραήλ και της Ιαπωνίας, έχει συντάξει μια Σύμβαση για την Τεχνητή Νοημοσύνη, τα Ανθρώπινα Δικαιώματα, τη Δημοκρατία και τους Κανόνες Δικαίου.
Όμως η ολομέλεια της επιτροπής, που είχε προγραμματιστεί για τον ερχόμενο Σεπτέμβριο, ακυρώθηκε. Οι ΗΠΑ είχαν ζητήσει η σύνταξη του κειμένου να γίνει κεκλεισμένων των θυρών, μεταξύ των κυβερνήσεων. Οι ομάδες της κοινωνίας των πολιτών θα αποκλείονταν από την σύνοδο.
Αυτή η μυστικότητα έρχεται σε αντίθεση με την εσωτερική πολιτική του Συμβουλίου της Ευρώπης, που βασίζεται στη διαφάνεια.
Υπάρχει όμως και ένα άλλο ουσιαστικό ζήτημα: Με την υποστήριξη του Ηνωμένου Βασιλείου, του Καναδά και του Ισραήλ, οι ΗΠΑ πιέζουν να περιορίσουν το πεδίο εφαρμογής της Σύμβασης AI μόνο σε δημόσιους φορείς, αφήνοντας έξω τον ιδιωτικό τομέα. Αντίθετα, η εντολή της επιτροπής αναφέρεται σε ένα «δεσμευτικό νομικό μέσο», τόσο για δημόσιους όσο και για ιδιωτικούς οργανισμούς.
Το «φαινόμενο των Βρυξελλών»
Η ευρωπαϊκή νομοθεσία λόγω του μεγάλου μεγέθους και της ενιαίας αγοράς της ΕΕ μπορούν να επηρεάσουν τις επιχειρηματικές αποφάσεις για εταιρείες που εδρεύουν αλλού -ένα φαινόμενο γνωστό ως «φαινόμενο των Βρυξελλών».
Καθώς ο Γενικός Κανονισμός Προστασίας Δεδομένων (GDPR) της ΕΕ έγινε μια παγκόσμια κινητήρια δύναμη στην επιχειρηματική κοινότητα, αυτός ο νόμος θα κάνει το ίδιο. Η επιβάρυνση των εταιρειών να συντηρούν και να διατηρούν χωριστές υποδομές αποκλειστικά για την ΕΕ, είναι πολύ υψηλότερος από το κόστος συμμόρφωσης. Και το κόστος (και το εύρος) της μη συμμόρφωσης για εταιρείες (και ιδιώτες) έχει αυξηθεί - οι απαγορευμένες χρήσεις, εκείνες που θεωρούνται ότι έχουν απαράδεκτο κίνδυνο, θα επιφέρουν μεγάλα πρόστιμα. Το ίδιο θα ισχύει για τις παραβιάσεις των νόμων περί ανθρωπίνων δικαιωμάτων ή κάθε είδους διάκριση που διαπράττεται από τεχνητή νοημοσύνη. Άλλα αδικήματα μη συμμόρφωσης, συμπεριλαμβανομένων των θεμελιωδών μοντέλων, καθώς και όσοι παρέχουν ψευδείς, ελλιπείς ή παραπλανητικές πληροφορίες στις ρυθμιστικές αρχές μπορούν να τιμωρηθούν με μεγάλα πρόστιμα. Αυτά τα πρόστιμα είναι ένα «μεγάλο ραβδί» για την ενθάρρυνση της συμμόρφωσης με τους κανόνες.
Η ευρωπαϊκή νομοθεσία θα έχει αντίκτυπο στον υπόλοιπο κόσμο, αλλά όχι απλώς με το να γίνει το θεμέλιο για άλλες νομοθετικές πράξεις για την τεχνητή νοημοσύνη. Το πιο σημαντικό είναι ότι ο νόμος της ΕΕ θέτει ορισμένους περιορισμούς στη χρήση της τεχνητής νοημοσύνης από τις κυβερνήσεις για την προστασία της δημοκρατίας και των θεμελιωδών δικαιωμάτων των πολιτών. Σίγουρα, τα αυταρχικά καθεστώτα δεν θα ακολουθήσουν αυτόν τον δρόμο. Ο νόμος για την τεχνητή νοημοσύνη είναι επομένως πιθανό να γίνει ένας δείκτης, διαφοροποιώντας τις κυβερνήσεις που εκτιμούν τη δημοκρατία περισσότερο από την τεχνολογία, έναντι εκείνων που επιδιώκουν να χρησιμοποιήσουν την τεχνολογία για να ελέγξουν το κοινό τους.
Πηγή: CEPA, Atlantic Counsil
Επιμέλεια Τέρρυ Μαυρίδης