Τι σημαίνει η ψήφιση του Κανονισμού για την Τεχνητή Νοημοσύνη απ' το Ευρωκοινοβούλιο

Newsroom
Viber Whatsapp
Μοιράσου το
Τι σημαίνει η ψήφιση του Κανονισμού για την Τεχνητή Νοημοσύνη απ' το Ευρωκοινοβούλιο
Στόχος να προστατέψει τα θεμελιώδη δικαιώματα, τη δημοκρατία, το κράτος δικαίου και την περιβαλλοντική βιωσιμότητα από τα συστήματα ΑΙ υψηλού κινδύνου.

Λίγο μετά την ψήφιση, με ευρύτατη πλειοψηφία από το Ευρωκοινοβούλιο, του Κανονισμού για την Τεχνητή Νοημοσύνη (AI Act), της πρώτης ολοκληρωμένης νομοθεσίας παγκοσμίως γι' αυτήν τη ραγδαία αναπτυσσόμενη τεχνολογία, και καθώς η Ευρωπαϊκή Ένωση προχωρά ένα βήμα πιο κοντά στην εφαρμογή του Κανονισμού, έξι Έλληνες ειδικοί της τεχνητής νοημοσύνης, οι Πέτρος Κουμουτσάκος, Λίλιαν Μήτρου, Γιώργος Παγουλάτος, Φερενίκη Παναγοπούλου, Γιώργος Παππάς και Ιωάννης Πήτας, αναδεικνύουν, μιλώντας στο ΑΠΕ-ΜΠΕ, τα θετικά, αλλά και τις προκλήσεις που επιφέρει αυτή η νομοθετική πρωτοβουλία-ορόσημο.

Στόχος της νέας νομοθεσίας, σύμφωνα και με το δελτίο Τύπου που εξέδωσε το Ευρωκοινοβούλιο, είναι να προστατέψει τα θεμελιώδη δικαιώματα, τη δημοκρατία, το κράτος δικαίου και την περιβαλλοντική βιωσιμότητα από τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου, αλλά και να ενισχύσει παράλληλα την καινοτομία και να αναδείξει την Ευρώπη ως πρωτοπόρο δύναμη στον τομέα αυτόν. Γι' αυτό τον σκοπό, ο Κανονισμός ορίζει διαφορετικές υποχρεώσεις για τα συστήματα τεχνητής νοημοσύνης, ανάλογα με τους πιθανούς κινδύνους και τις επιπτώσεις που ενέχει η χρήση τους.

«Ο Κανονισμός είναι αναμφίβολα το σημαντικότερο, πιο ολοκληρωμένο και πιο επιδραστικό ρυθμιστικό βήμα που έγινε σε διεθνές επίπεδο», επισημαίνει στο ΑΠΕ-ΜΠΕ η Λίλιαν Μήτρου, καθηγήτρια Δικαίου Προστασίας Προσωπικών Δεδομένων και Δικαίου της Πληροφορίας/Διαδικτύου στο Πανεπιστήμιο Αιγαίου. Για «ιστορικό βήμα προώθησης της διεθνούς ανταγωνιστικότητας και της προστασίας των ανθρωπίνων δικαιωμάτων, δύο στόχων που δεν συμβαδίζουν εύκολα» κάνει λόγο ο Γιώργος Παγουλάτος, μόνιμος αντιπρόσωπος της Ελλάδας στον ΟΟΣΑ και μέλος της Εθνικής Επιτροπής για την Τεχνητή Νοημοσύνη. Από την πλευρά της, η Φερενίκη Παναγοπούλου, επίκουρη καθηγήτρια Συνταγματικού Δικαίου, Δικαίου Προστασίας Δεδομένων και Βιοηθικής στο Πάντειο Πανεπιστήμιο, μέλος και εκείνη της Εθνικής Επιτροπής για την Τεχνητή Νοημοσύνη, υπογραμμίζει ότι «ο Κανονισμός αποσκοπεί σε μια ρύθμιση που προωθεί την αγορά σεβόμενη ταυτόχρονα τα θεμελιώδη δικαιώματα και την ασφάλεια».

Θετική είναι και η αποτίμηση τριών κορυφαίων ερευνητών της τεχνητής νοημοσύνης. «Η νομοθεσία αυτή είναι σημαντική και η Ευρώπη πρωτοπορεί», τονίζει ο Πέτρος Κουμουτσάκος, πρόεδρος του Τμήματος Εφαρμοσμένων Μαθηματικών του Χάρβαρντ, ενώ ο Γιώργος Παππάς, καθηγητής στο Τμήμα Ηλεκτρολόγων Μηχανικών του Πανεπιστημίου της Πενσιλβάνια κάνει λόγο για ένα «εξαιρετικό επίτευγμα, που θα προστατέψει τους Ευρωπαίους από τα νέα ρίσκα της τεχνητής νοημοσύνης». Ο Ιωάννης Πήτας, καθηγητής του Τμήματος Πληροφορικής του ΑΠΘ, πρόεδρος της Διεθνούς Ακαδημίας Διδακτορικών Σπουδών στην Τεχνητή Νοημοσύνη (AIDA) και μέλος της Εθνικής Επιτροπής για την Τεχνητή Νοημοσύνη, τονίζει ότι «η νομοθετική ρύθμιση της χρήσης συστημάτων τεχνητής νοημοσύνης είναι επιτακτική ανάγκη και η Ευρωπαϊκή Ένωση πρωτοπόρησε στον τομέα αυτό».

Τι προβλέπεται

Μετά την ψήφισή του στο Ευρωπαϊκό Συμβούλιο τους επόμενους μήνες, ο Κανονισμός θα γίνει νόμος της Ευρωπαϊκής Ένωσης και η πλήρης εφαρμογή του αναμένεται σε 24-36 μήνες μετά την έναρξη ισχύος του. Ο Κανονισμός ορίζει διαφορετικές υποχρεώσεις για τα συστήματα τεχνητής νοημοσύνης, ανάλογα με τους πιθανούς κινδύνους και τις επιπτώσεις που ενέχει η χρήση τους.

Μεταξύ άλλων, οι νέοι κανόνες απαγορεύουν ορισμένες εφαρμογές τεχνητής νοημοσύνης που απειλούν τα δικαιώματα των πολιτών, όπως είναι τα συστήματα βιομετρικής κατηγοριοποίησης που βασίζονται σε ευαίσθητα χαρακτηριστικά και η μη στοχοθετημένη συλλογή εικόνων προσώπων από το διαδίκτυο ή βίντεο από κάμερες κλειστού κυκλώματος παρακολούθησης, με στόχο τη δημιουργία βάσεων δεδομένων για την αναγνώριση προσώπων. Θα απαγορεύονται, επίσης, η αναγνώριση συναισθημάτων στον χώρο εργασίας και τα σχολεία, η κοινωνική βαθμολόγηση, η προληπτική αστυνόμευση (όταν βασίζεται αποκλειστικά στη δημιουργία προφίλ ενός ατόμου ή στην αξιολόγηση των χαρακτηριστικών του) και η τεχνητή νοημοσύνη που χειραγωγεί την ανθρώπινη συμπεριφορά ή εκμεταλλεύεται τα τρωτά σημεία των ανθρώπων. Επιπλέον, θεσπίζονται σαφείς υποχρεώσεις για συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου, λόγω της σημαντικής δυνητικής βλάβης που μπορεί να προκαλέσουν.

Ο Κανονισμός θέτει ορισμένες εξαιρέσεις για τις Αρχές επιβολής του νόμου. Για παράδειγμα, απαγορεύει, κατ' αρχήν, τη χρήση βιομετρικών συστημάτων ταυτοποίησης προσώπου από τις Αρχές επιβολής του νόμου, ωστόσο, κατ' εξαίρεση, επιτρέπεται η χρήση αυτών των συστημάτων «σε εξαντλητικά απαριθμούμενες και στενά καθορισμένες περιστάσεις», όπως εξηγεί στο ΑΠΕ-ΜΠΕ η επίκουρη καθηγήτρια του Παντείου, Φερενίκη Παναγοπούλου. «Ο Κανονισμός κατηγοριοποιεί τα συστήματα με βάση τον κίνδυνο, διαβαθμίζοντας το επίπεδο ρύθμισης σε συνάρτηση με το επίπεδο κινδύνου που ενέχουν τα διάφορα συστήματα τεχνητής νοημοσύνης. Στόχος είναι να αποφύγει τόσο την υπορύθμιση (που αποτυγχάνει να προστατεύσει τα δικαιώματα και τις άλλες αξίες), όσο και την υπερρύθμιση (που περιστέλλει την καινοτομία και την αποτελεσματική λειτουργία της ενιαίας αγοράς)», εξηγεί.

Ωστόσο, η κ. Παναγοπούλου θέτει τον προβληματισμό ότι «η προσέγγιση βάσει καταλόγου και όχι βάσει αρχών για τον καθορισμό τού κατά πόσον ένα σύστημα χαρακτηρίζεται ως υψηλού κινδύνου δεν είναι απροβλημάτιστη. Είναι εξαιρετικά δύσκολο να απαριθμηθούν, εκ των προτέρων, οι εφαρμογές των συστημάτων που απειλούν με σοβαρές παραβιάσεις δικαιωμάτων. Κατά συνέπεια, τα συστήματα που αυτήν τη στιγμή χαρακτηρίζονται ως χαμηλού κινδύνου ενδεχομένως να μην υπόκεινται σε ρύθμιση που επαρκεί για την αποτροπή παραβιάσεων δικαιωμάτων. Το ελάττωμα αυτό ενισχύεται από τις ανησυχίες ότι οι διατάξεις του νόμου ενδέχεται να εκτοπίσουν πιο απαιτητικές προστασίες δικαιωμάτων που παρέχονται από άλλους νόμους της ΕΕ, και τις πιο απαιτητικές προστασίες δικαιωμάτων που έχουν θεσπιστεί σε εθνικό επίπεδο από τα κράτη μέλη».

Η καθηγήτρια στο Πανεπιστήμιο Αιγαίου, Λίλιαν Μήτρου, διευκρινίζει από την πλευρά της στο ΑΠΕ-ΜΠΕ ότι ο Κανονισμός δεν θα εφαρμόζεται στα ερευνητικά προγράμματα για να μην σταματήσει η έρευνα. Την ίδια ώρα όμως, «όταν θέλεις να βγάλεις κάτι μετά στην αγορά, αυτό πρέπει να είναι σύμφωνο με τους κανόνες. Άρα, μπορεί στην έρευνα να μην είσαι υποχρεωμένος να το ακολουθήσεις, αλλά αυτό που θα προκύψει μετά ως αποτέλεσμα, για να εφαρμοστεί ως σύστημα τεχνητής νοημοσύνης, θα πρέπει να είναι σύμφωνο με τον Κανονισμό».

Σημαντικό στοιχείο του Κανονισμού είναι, όπως τονίζει η κ. Μήτρου, το μέτρο της εξωεδαφικής εφαρμογής. Δηλαδή θα εφαρμοστεί στους παρόχους, οι οποίοι θα διαθέτουν συστήματα με τεχνητή νοημοσύνη σε χώρα της ΕΕ, ανεξάρτητα από το αν είναι εγκατεστημένοι στην ΕΕ ή σε τρίτη χώρα, θα εφαρμοστεί σε χρήστες συστημάτων εντός της ΕΕ, ανεξάρτητα από το πού έχει παραχθεί το σύστημα, αλλά ακόμα και σε παρόχους ή χρήστες συστημάτων τεχνητής νοημοσύνης που βρίσκονται σε τρίτη χώρα, όταν τα στοιχεία εξόδου που παράγει το σύστημα (τα αποτελέσματα της ανάλυσης δηλαδή) χρησιμοποιούνται στην ΕΕ.

«Η τεχνητή νοημοσύνη βοηθά στον αυτοματισμό πολλών πραγμάτων και χρειάζεται. Παράλληλα, βασίζεται πολύ σε στατιστική και δεδομένα και ανθρώπινες προκαταλήψεις (όπως το είδος δεδομένων, οι αλγόριθμοι). Όμως, η κατάχρηση αυτού του αυτοματισμού μπορεί να προκαλέσει πολλά προβλήματα στην αντιμετώπιση προσωπικών θεμάτων και χρειάζεται ένα νομοθετικό πλαίσιο», εξηγεί ο Πέτρος Κουμουτσάκος, πρόεδρος του Τμήματος Εφαρμοσμένων Μαθηματικών του Χάρβαρντ, ο οποίος σήμερα ασχολείται σε βάθος με το συνδυασμό μαθηματικών και υπολογιστικών μεθόδων με την τεχνητή νοημοσύνη.

Όπως προσθέτει χαρακτηριστικά ο κ. Κουμουτσάκος: «Νομίζω πως όσο προχωράμε, θα καταλαβαίνουμε περισσότερο την τεχνητή νοημοσύνη, τις δυνατότητες και τη χρήση της και νομίζω πως θα χρειαστούμε και άλλες νομοθετήσεις». Μάλιστα, ο Γιώργος Παππάς, καθηγητής στο Τμήμα Ηλεκτρολόγων Μηχανικών του Πανεπιστημίου της Πενσιλβάνια, με εξειδίκευση μεταξύ άλλων στα ερευνητικά πεδία της ρομποτικής και της μηχανικής μάθησης για ασφαλή κυβερνοφυσικά συστήματα, αναφέρει από την πλευρά του ότι από τη συγκεκριμένη νομοθεσία «θα επηρεαστεί αντίστοιχη νομοθεσία και στην Αμερική».

«Το AI Act είναι το πρώτο, σε παγκόσμιο επίπεδο, νομικό πλαίσιο ρύθμισης του πεδίου της Τεχνητής Νοημοσύνης, κατά τρόπο που να αξιοποιεί τις τεράστιες αναπτυξιακές δυνατότητές της, θεσπίζοντας όμως παράλληλα ένα αυστηρό πλαίσιο αντιμετώπισης των υψηλού ρίσκου εφαρμογών της και εγγυήσεων προστασίας των ατομικών δικαιωμάτων, της δημόσιας σφαίρας και της δημοκρατίας», σχολιάζει από την πλευρά του στο ΑΠΕ-ΜΠΕ ο Γιώργος Παγουλάτος, μόνιμος αντιπρόσωπος της Ελλάδας στον ΟΟΣΑ και μέλος της Εθνικής Επιτροπής για την Τεχνητή Νοημοσύνη.

Στην επιτακτική ανάγκη που υπήρχε για νομοθετική ρύθμιση των συστημάτων τεχνητής νοημοσύνης αναφέρεται και ο καθηγητής του Τμήματος Πληροφορικής του ΑΠΘ και πρόεδρος της Διεθνούς Ακαδημίας Διδακτορικών Σπουδών στην Τεχνητή Νοημοσύνη (AIDA), Ιωάννης Πήτας, υπενθυμίζοντας «τις δυσλειτουργίες και τους κινδύνους που παρουσιάστηκαν διεθνώς από την έλλειψη επαρκούς ρύθμισης, για παράδειγμα των κοινωνικών μέσων». Επίσης, αναδεικνύει ένα από τα σημαντικά σημεία του Κανονισμού, την πρόβλεψη Αποθετηρίου Συστημάτων Τεχνητής Νοημοσύνης, που είχε προταθεί εδώ και πολύ καιρό από την Ακαδημία AIDA.

Οι προκλήσεις του Κανονισμού

Ωστόσο, ο κ. Πήτας θέτει τον προβληματισμό εάν ο Κανονισμός «είναι ο σωστός τρόπος για την προστασία των πολιτών από αρνητικές συνέπειες της τεχνητής νοημοσύνης και για την προαγωγή μιας αξιόπιστης εκδοχής της τεχνητής νοημοσύνης χωρίς αρνητικές επιπτώσεις στην ανάπτυξή της». Όπως επισημαίνει, «ο νόμος στηρίζεται στην έννοια του ρίσκου χρήσης ενός συστήματος τεχνητής νοημοσύνης. Όμως το ρίσκο δεν μπορεί να οριστεί με αντικειμενικό και μετρήσιμο τρόπο, πόσο μάλλον όταν δεν υπάρχουν δεδομένα. Ακόμα χειρότερα, ένα σύστημα τεχνητής νοημοσύνης μπορεί να χρησιμοποιηθεί και για την παραγωγή ψεύτικων εικόνων για πολιτική παραπληροφόρηση και για την παραγωγή έργων ψηφιακής τέχνης. Επομένως, κάθε κατηγοριοποίηση ενός συστήματος σε υψηλό ρίσκο μπορεί να αμφισβητηθεί στα δικαστήρια. Τυχόν αδρανοποίηση του Κανονισμού για τέτοιους λόγους θα είναι καταστροφική».

Η Λίλιαν Μήτρου εστιάζει τον κύριο προβληματισμό της στο κατά πόσο η συγκεκριμένη ρύθμιση «και κάθε ρύθμιση τεχνολογίας αυτή τη στιγμή μπορεί να συμβαδίσει με την εξέλιξη. Αν αυτές οι ρυθμίσεις που έχουν στο μυαλό τους αυτή τη φάση της τεχνολογικής εξέλιξης είναι σε θέση να αντιμετωπίσουν και τη μελλοντική εξέλιξη. Υπάρχουν πρόνοιες στον κανονισμό που λένε ότι η Ευρωπαϊκή Επιτροπή μπορεί να εμπλουτίσει τους κανόνες, αλλά το βασικό μοντέλο έχει σχεδιαστεί για την τεχνολογική εξέλιξη που έχουμε τώρα».

Επιπλέον, η κ. Μήτρου τονίζει ότι πρόκληση θα αποτελέσει η εφαρμογή του Κανονισμού από την κάθε χώρα της ΕΕ, καθώς οι χώρες θα ορίσουν μόνες τους τις Αρχές που θα αναλάβουν την εφαρμογή. «Κάποιες χώρες θα ορίσουν τις Αρχές Προστασίας Προσωπικών Δεδομένων, κάποιες άλλες μπορεί να κάνουν άλλες ανεξάρτητες Αρχές, κάποιες άλλη τρίτη επιλογή. Το πώς κάθε Αρχή θα εφαρμόσει τη νομοθεσία θα είναι διαφορετικό, οπότε δεν θα είναι χωρίς πρόβλημα η εφαρμογή», εξηγεί.

Θα μπορέσει όμως τελικά η Ευρωπαϊκή Ένωση να ακολουθήσει την τεχνολογική ανάπτυξη των ΗΠΑ ή της Κίνας; Αυτός είναι ένας από τους κύριους προβληματισμούς που συνοδεύουν την ψήφιση του AI Act.

«Το μεγάλο δίλημμα είναι κατά πόσο αυτή η νομοθεσία θα μειώσει την ικανότητα της Ευρωπαϊκής Ένωσης να καινοτομεί σε σχέση με τις ΗΠΑ ή με την Κίνα. Η επόμενη δεκαετία θα δείξει», απαντά ο Γιώργος Παππάς από το Πανεπιστήμιο της Πενσιλβάνια.

Ο μόνιμος αντιπρόσωπος της Ελλάδας στον ΟΟΣΑ, Γιώργος Παγουλάτος, παρατηρεί ότι ο Κανονισμός «υπηρετεί τη φιλοδοξία της Ευρώπης να αναδείξει διεθνώς ισχυρές ευρωπαϊκές επιχειρήσεις στον τομέα της τεχνητής νοημοσύνης, προκειμένου να ανταγωνιστεί τις ως τώρα υπερέχουσες εταιρίες των ΗΠΑ και της Κίνας. Διεθνής ανταγωνιστικότητα και προστασία των δικαιωμάτων δεν είναι στόχοι που εύκολα συμβαδίζουν, αλλά η AI Act συνιστά ιστορικό βήμα προώθησης και των δύο αυτών επιδιώξεων».

«Τυχόν υπερρύθμιση της τεχνητής νοημοσύνης θα έχει αρνητικές επιπτώσεις στην τεχνολογική ανάπτυξη της Ευρώπης, που ήδη υστερεί στον τομέα αυτόν. Η τιμωρητική λογική δεν είναι πάντα αποτελεσματική, ούτε πάντα χρήσιμη», απαντά ο καθηγητής του ΑΠΘ, Ιωάννης Πήτας και περιγράφει ότι «ήδη στα πανεπιστήμια έχουμε προβλήματα συλλογής δεδομένων έρευνας και ανάπτυξης τεχνητής νοημοσύνης, λόγω της υπερρύθμισης (κανονισμός GDPR)». Ο κ. Πήτας θέτει την πρόταση η Ευρωπαϊκή Ένωση να υιοθετήσει μια πολιτική ανταμοιβής της υγιούς έρευνας και ανάπτυξης τεχνητής νοημοσύνης. «Μπορεί για παράδειγμα να υιοθετήσει ένα νομικό πλαίσιο διαφανούς χρήσης των προσωπικών ή εταιρικών δεδομένων για ανάπτυξη της τεχνητής νοημοσύνης με οικονομική ανταμοιβή των κατόχων τους (δηλαδή των πολιτών, σε εθελοντική βάση) από όσες εταιρίες ωφελούνται από τη χρήση των δεδομένων αυτών. Κάτι τέτοιο και την ανάπτυξη της τεχνητής νοημοσύνης θα ωφελήσει και θα δημιουργήσει μια νέα παγκόσμια αγορά δεδομένων».

«Είναι μια συνταγματική επιλογή στο τι χώρα θέλεις να ζεις», επισημαίνει από την πλευρά της η κ. Μήτρου. «Βεβαίως και έχει κόστος. Θέλει μια άσκηση, και ερευνητική και επιχειρηματική και θέλει όντως και μια επένδυση. Δεν είναι απλό, αλλά γίνεται. Μπορείς να συνδυάσεις την καινοτομία με τα θεμελιώδη δικαιώματα». Επίσης, προσθέτει ότι «η ευρωπαϊκή αγορά είναι πολύ σημαντική, τα συστήματα δεν παράγονται μόνο για την Κίνα, τον Καναδά ή τις ΗΠΑ, αλλά και για τους καταναλωτές στην Ευρώπη, και εκεί εστιάζεται και η λογική της ΕΕ».

Πηγή: ΑΠΕ-ΜΠΕ

Ακολουθήστε το insider.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις από την Ελλάδα και τον κόσμο.

BEST OF LIQUID MEDIA

gazzetta
gazzetta reader insider insider