Η Ευρώπη δείχνει το δρόμο για την ορθή χρήση της Τεχνητής Νοημοσύνης - Ποιους κανόνες ψήφισαν οι Ευρωβουλευτές

Νίκη Παπάζογλου
Viber Whatsapp Μοιράσου το
Η Ευρώπη δείχνει το δρόμο για την ορθή χρήση της Τεχνητής Νοημοσύνης - Ποιους κανόνες ψήφισαν οι Ευρωβουλευτές
Πώς θα κατηγοριοποιούνται τα συστήματα τεχνητής νοημοσύνης και ποια θα απαγορεύονται - Τι ισχύει για τις εφαρμογές γενικής χρήσης - Πώς προστατεύεται ο άνθρωπος - Οι δράσεις για να στηριχτεί η καινοτομία και να παραμείνουν οι τεχνολογικοί κολοσσοί εντός ΕΕ . 

Ανταπόκριση από Στρασβούργο

Στο τεντωμένο σκοινί της τεχνολογικής καινοτομίας περπατά το τελευταίο διάστημα η Ευρώπη προσπαθώντας να διαφυλάξει τις λεπτές ισορροπίες της. Έχοντας συνειδητοποιήσει έγκαιρα τις πολλαπλές δυνατότητες που εγκαινιάζει η ΑΙ (Τεχνητή Νοημοσύνη) και λαμβάνοντας, όπως κάθε φορά, υπόψιν τους κινδύνους που ελλοχεύουν από τη μη ορθή χρήση της, προσπαθεί να χαράξει ένα ρυθμιστικό πλαίσιο που θα εγγυάται ασφάλεια και θα διαφυλάσσει τις αρχές και τις αξίες πάνω στις οποίες οικοδομήθηκε.

Στην διαφύλαξη αυτής της λεπτής ισορροπίας επικεντρώθηκε και η τρέχουσα Ολομέλεια του Ευρωπαϊκού Κοινοβουλίου στο Στρασβούργο, συζητώντας εχθές και ψηφίζοντας σήμερα το προσχέδιο του ρυθμιστικού αυτού πλαισίου, που θα διέπει την νομοθεσία σχετικά με την Τεχνητή Νοημοσύνη στο μέλλον.

«Πρόκειται για ένα ιστορικό εγχείρημα για το οποίο θα πρέπει να είμαστε περήφανοι αφού προσδίδει στην ΕΕ πρωταγωνιστικό ρόλο. Μια απόφαση καθοριστική, η σημαντότητα της οποίας θα αποδειχτεί στο μέλλον» ήταν η άποψη που συμμερίστηκε η πλειονότητα των Ευρωβουλευτών κατά την σχετική συζήτηση της Ολομέλειας στο Στρασβούργο για το πλαίσιο κανόνων σχετικά με την Τεχνητή Νοημοσύνη. Εξίσου ευχαριστημένοι δήλωσαν μάλιστα οι Ευρωβουλευτές για την έγκαιρη ανάληψη δράσης, η οποία αντιτίθεται στον χρονοβόρο γραφειοκρατικό μηχανισμό που συνήθως ακολουθεί το ευρωπαϊκό οικοδόμημα. «Η ρύθμιση δεν έπεται αλλά συμβαδίζει με τις εξελίξεις, προχωρά δηλαδή προτού η αγορά αναπτυχθεί και η ανάπτυξη αυτή θέσει υποχρεωτικά τους κανόνες», ανέφεραν ευρωβουλευτές σε δημοσιογραφικά πηγαδάκια πριν και μετά την σχετική συνεδρίαση.

Από το ευοίωνο κλίμα βέβαια, δεν απουσίασαν και οι ανησυχίες για την εν λόγω ρύθμιση, οι οποίες φάνηκε να αποτελούν τις δύο όψεις ενός και μόνο νομίσματος. Από τη μια ο φόβος μην η νομοθεσία λειτουργήσει αποτρεπτικά στην τεχνολογική πρόοδο και καινοτομία, εμποδίζοντας τις τεχνολογικές επιχειρήσεις να επενδύσουν στην Ευρώπη. Κι από την άλλη τυχόν εξαιρέσεις που θα εξασφαλιστούν μην επιφέρουν μια χαλαρότητα που επιτρέψει εντέλει την μη ηθική χρήση της ΤΝ», όπως ανέφερε ο Axel Voss, Γερμανός ευρωβουλευτής, εκπρόσωπος της επιτροπής Juri που συμμετείχε ενεργά στις διαβουλεύσεις για το AI ACT, μιλώντας στο insider.gr.

«Δεν θα στηρίξουμε καμία νομοθεσία που δεν θα προστατεύει την ανθρώπινη ζωή. Θα πρέπει η TN να αναπτυχθεί με αποφασιστικότητα αλλά και υπευθυνότητα και εμπιστοσύνη και φυσικά έχοντας πάντα στο επίκεντρο τον άνθρωπο» επεσήμανε από πλευράς του ο Petar Vitanov, από την Ομάδα της Προοδευτικής Συμμαχίας των Σοσιαλιστών και Δημοκρατών, ο οποίος υπήρξε σκιώδης εισηγητής του νομοθετικού πλαισίου που υπερψηφίστηκε σήμερα με 499 ψήφους υπέρ, 28 κατά και 93 αποχές.

Τι προβλέπει το σχέδιο πράξης για την Τεχνητή Νοημοσύνη

Η φιλοσοφία της όλης πρωτοβουλίας είναι σχετικά απλή και συμβαδίζει με τις αρχές και τις αξίες της Ένωσης. Στόχος της είναι να διασφαλίσει ότι τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται στην ΕΕ είναι ασφαλή, διαφανή, ανιχνεύσιμα, δεν προωθούν ή αναπαράγουν τις διακρίσεις και δεν επιβαρύνουν το περιβάλλον.

Για να επιτευχθούν όλα τα παραπάνω θα πρέπει αφενός τα εν λόγω συστήματα να επιβλέπονται από ανθρώπους και να μην στηρίζονται αποκλειστικά σε αυτοματισμούς κι αφετέρου να διαβαθμιστούν ανάλογα με τους κινδύνους που ενέχουν ώστε να υπόκεινται σε διαφορετικά επίπεδα ρύθμισης.

Συστήματα υψηλού αλλά και απαράδεκτου κινδύνου

Σε αυτό το πλαίσιο, θα υπάρξουν εφαρμογές ΤΝ γενικής χρήσης, συστήματα υψηλού κινδύνου αλλά και συστήματα απαράδεκτου κινδύνου, η ανάπτυξη και χρήση των οποίων θα απαγορεύεται αφού κρίνονται απειλητικά για το ίδιο το ανθρώπινο είδος.

Αυτά θα περιλαμβάνουν συστήματα που προωθούν την γνωστική συμπεριφορική χειραγώγηση ατόμων και ευάλωτων ομάδων - όπως ένα παιχνίδι ΑΙ που ενθαρρύνει την επικίνδυνη συμπεριφορά στα παιδιά - συστήματα κοινωνικής βαθμολογίας - όπως το σύστημα βαθμολόγησης πολιτών που έχει εφαρμόσει ήδη πιλοτικά η Κίνα - και συστήματα τεχνητής νοημοσύνης για βιομετρική ταυτοποίηση, αναγνώριση συναισθημάτων και προληπτική αστυνόμευση.

Για τα τελευταία μάλιστα, υπήρξε κατά την συζήτηση στην Ολομέλεια διχογνωμία, με το ΕΛΚ να προτείνει την άρση της απαγόρευσή τους σε περιπτώσεις τρομοκρατικών χτυπημάτων ή παιδικής κακοποίησης. Η πρόταση ωστόσο δεν έγινε αποδεκτή, δεδομένου ότι η αστυνόμευση ακόμα και για αυτούς τους σκοπούς θα αφορούσε στο σύνολο των πολιτών, καταστρατηγώντας τις προσωπικές ελευθερίας και παραβιάζοντας την ιδιωτικότητα των πολιτών, όπως εξήγησε ο κ. Petar Vitanov.

Ειδικότερα, μετά την διεύρυνση της κατηγορίας της τεχνητής νοημοσύνης απαράδεκτου κινδύνου, προβλέπεται να απαγορεύονται συστήματα τεχνητής νοημοσύνης που αφορούν σε:

  • Εξ αποστάσεως βιομετρική αναγνώριση προσώπων σε πραγματικό χρόνο , σε δημόσιους χώρους
  • Eκ των υστέρων βιομετρική ταυτοποίηση, εκτός εάν υπάρχει νόμιμη άδεια από τις αρμόδιες αρχές και είναι απολύτως αναγκαία σε συνάρτηση με συγκεκριμένο σοβαρό ποινικό αδίκημα
  • Βιομετρική κατηγοριοποίηση ατόμων με βάση προσωπικά δεδομένα ευαίσθητου χαρακτήρα (π.χ. φύλο, φυλή, εθνοτική καταγωγή, υπηκοότητα, θρησκεία, πολιτικός προσανατολισμός)
  • Προληπτική αστυνόμευση (με βάση τη δημιουργία προφίλ, την τοποθεσία ή προηγούμενη εγκληματική συμπεριφορά ατόμων)
  • Αναγνώριση συναισθημάτων για λόγους αστυνόμευσης, για τον έλεγχο των συνόρων, στον χώρο εργασίας και στα εκπαιδευτικά ιδρύματα
  • Μη στοχοθετημένη συλλογή εικόνων προσώπων από το διαδίκτυο ή από κάμερες κλειστού κυκλώματος παρακολούθησης, με στόχο τη δημιουργία βάσεων δεδομένων για την αναγνώριση προσώπων (κατά παράβαση των ανθρωπίνων δικαιωμάτων και του δικαιώματος στην ιδιωτική ζωή).

Στην περίπτωση των συστημάτων ΤΝ υψηλού κινδύνου, περιλαμβάνονται συστήματα τεχνητής νοημοσύνης που προκαλούν σημαντική βλάβη στην υγεία, την ασφάλεια και τα θεμελιώδη δικαιώματα των ανθρώπων ή στο περιβάλλον. Τα συστήματα δηλαδή αυτά που δύναται να επηρεάσουν αρνητικά την ασφάλεια ή τα θεμελιώδη δικαιώματα, και τα οποία για το λόγο αυτό θα υπόκεινται σε πιο αυστηρούς κανονισμούς, οι οποίοι θα αποσαφηνιστούν στην συνέχεια, όταν ολοκληρωθούν οι διαβουλεύσεις στην Επιτροπή.

Αξίζει να σημειωθεί ωστόσο ότι στον ίδιο κατάλογο συμπεριλήφθηκαν ακόμα και τα συστήματα που χρησιμοποιούνται για να επηρεάσουν τους ψηφοφόρους και συνεπώς τα αποτελέσματα των εκλογών, καθώς και οι συστάσεις περιεχομένου που κάνουν οι πλατφόρμες κοινωνικής δικτύωσης στους πάνω από 45 εκατομμύρια χρήστες τους, με βάση αλγόριθμους. Όπως διευκρίνισε ωστόσο η πρόεδρος του Ευρωκοινοβουλίου, Ρομπέρτα Μέτσολα, οι αυστηρότεροι κανόνες για τις εκλογικές διαδικασίες δεν θα είναι σε ισχύ στις επικείμενες ευρωεκλογές.

Εφαρμογές γενικής χρήσης με υποχρεώσεις

Πέρα από τις προαναφερθείσες κατηγορίες από συγκεκριμένες υποχρεώσεις θα διέπονται και οι γενικής χρήσης εφαρμογές τεχνητής νοημοσύνης.

Για την ακρίβεια βάσει του AI Act προβλέπεται ότι οι εταιρείες προγραμματισμού που δημιουργούν νέου τύπου εφαρμογές τεχνητής νοημοσύνης (τα λεγόμενα «foundation models») θα πρέπει να αξιολογούν και να μετριάζουν τους πιθανούς κινδύνους (για την υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, την δημοκρατία και το κράτος δικαίου) και να εγγράφουν τις εφαρμογές αυτές στη βάση δεδομένων της ΕΕ, πριν τις διαθέσουν στην ευρωπαϊκή αγορά.

Επιπλέον, θα πρέπει να μεριμνούν ώστε όλες οι εφαρμογές παραγωγικής τεχνητής νοημοσύνης που στηρίζονται σε τέτοια μοντέλα, όπως το ChatGPT, να συμμορφώνονται με τις απαιτήσεις διαφάνειας της ΕΕ. Επί του πρακτέου δηλαδή θα πρέπει να γνωστοποιούν στο κοινό ότι έχουν χρησιμοποιηθεί για την δημιουργία ενός προϊόντος τεχνητής νοημοσύνης, βοηθώντας με τον τρόπο αυτό και στον διαχωρισμό των παραποιημένων εικόνων.

Τέλος θα πρέπει να οι προγραμματιστές να λαμβάνουν και τα κατάλληλα μέτρα, ώστε να διασφαλίζεται ότι δεν παράγουν παράνομο περιεχόμενο ενώ θα είναι υποχρεωμένοι να διαθέτουν στο κοινό λεπτομερή καταγραφή του υλικού που προστατεύεται από δικαιώματα πνευματικής ιδιοκτησίας και χρησιμοποιήθηκε για την «εκπαίδευση» των συστημάτων τους.

Να στηρίξουμε την καινοτομία - Να κρατήσουμε εντός ΕΕ τις τεχνολογικές επιχειρήσεις

Η στόχευση θέτει ξεκάθαρα τον άνθρωπο στο επίκεντρο. Ωστόσο εντοπίζεται σε αυτή και μια προσπάθεια ενθάρρυνσης της καινοτομίας και στήριξης της μικρομεσαίας επιχειρηματικότητας με τους ευρωβουλευτές να προτείνουν να εξαιρούνται από αυτές τις προαναφερθείσες υποχρεώσεις ερευνητικές δραστηριότητες και λογισμικά τεχνητής νοημοσύνης που παρέχονται βάσει αδειών ανοικτού κώδικα.

«Για να καταλήξουμε σε αυτό το σχέδιο νόμου εδώ και ενάμιση χρόνο μιλάμε έχουμε συζητήσει με τουλάχιστον 200 αρμόδιους φορείς, μεταξύ των οποίων και επιχειρήσεις. Στόχος μας είναι να δημιουργήσουμε ένα πλαίσιο που θέτει τον άνθρωπο στο επίκεντρο αλλά δεν φρενάρει την καινοτομία και τις επιχειρήσεις» εξήγησε ο κ. Petar Vitanov στο insider.gr. Σε αυτό το πλαίσιο μάλιστα επεσήμανε ότι εκτός ελαχίστων εξαιρέσεων, ο επιχειρηματικός κόσμος είναι θετικά διακείμενος στη ρύθμιση. Το γεγονός ότι θα πρέπει να μεριμνήσουμε για να διατηρηθούν εντός Ευρώπης οι μεγάλες τεχνολογικές επιχειρήσεις, επεσήμανε και ο κ. Axel Voss, εξηγώντας ότι προς το παρόν οι αντιδράσεις δεν μπορούν να εκτιμηθούν.

Κομβικό ρόλο στην προώθηση της καινοτομίας αναμένεται να παίξουν και τα λεγόμενα sandboxes, ένα είδος «ρυθμιστικών δοκιμαστηρίων», όπως αποκαλούνται, τα οποία θα θεσπίζονται από τις δημόσιες αρχές της κάθε χώρας για να δοκιμάζονται σε πραγματικές συνθήκες όλες οι εφαρμογές τεχνητής νοημοσύνης, πριν διατεθούν προς χρήση του κοινού.

Δικαίωμα καταγγελιών και εξηγήσεων για τους πολίτες

Αυτό βέβαια δεν σημαίνει ότι θα γίνουν εκπτώσεις σε ότι αφορά τον ανθρώπινο παράγοντα. Εν αντιθέσει για να ενισχυθεί η ανθρωποκεντρική προσέγγιση οι ευρωβουλευτές προβλέπουν η επικείμενη νομοθεσία να διασφαλίζει το δικαίωμα των πολιτών να υποβάλλουν καταγγελίες σχετικά με συστήματα τεχνητής νοημοσύνης αλλά και το δικαίωμά τους να δέχονται εξηγήσεις για τυχόν αποφάσεις που έχουν ληφθεί με βάση συστήματα υψηλού κινδύνου και επηρεάζουν σε σημαντικό βαθμό τα θεμελιώδη δικαιώματά τους. Για το λόγο αυτό μάλιστα θα δημιουργηθεί κι ένα Γραφείο Τεχνητής νοημοσύνης στην ΕΕ, το θα επιβλέπει την εφαρμογή του εγχειριδίου κανόνων για την τεχνητή νοημοσύνη.

«Τα βλέμματα όλου του κόσμου είναι στραμμένα πάνω μας σήμερα. Όσο οι τεχνολογικοί κολοσσοί κρούουν τον κώδωνα του κινδύνου για τα ίδια τα δημιουργήματά τους, η Ευρώπη προχωρά προτείνοντας συγκεκριμένους κανόνες για τους κινδύνους που αρχίζει να αντιπροσωπεύει η τεχνητή νοημοσύνη. Θέλουμε οι θετικές δυνατότητες της τεχνολογίας αυτής για τη δημιουργία και την παραγωγικότητα να τιθασευτούν, ενώ ταυτόχρονα παλεύουμε για την προστασία της θέσης μας στον κόσμο και την αντιμετώπιση κινδύνων για τις δημοκρατίες και την ελευθερία μας, στις διαπραγματεύσεις μας με το Συμβούλιο», ανέφερε μετά την ψηφοφορία ο συνεισηγητής Brando Benifei (Σοσιαλιστές, Ιταλία).

«Η νομοθετική πράξη για την τεχνητή νοημοσύνη θα ορίσει τη βάση της παγκόσμιας συζήτησης για την ανάπτυξη και τη διακυβέρνηση της τεχνητής νοημοσύνης, διασφαλίζοντας ότι η τεχνολογία αυτή, η οποία είναι έτοιμη να αλλάξει ριζικά τις κοινωνίες μας μέσω των τεράστιων οφελών που μπορεί να προσφέρει, θα αναπτυχθεί και θα χρησιμοποιηθεί σύμφωνα με τις ευρωπαϊκές αξίες της δημοκρατίας, των θεμελιωδών δικαιωμάτων και του κράτους δικαίου», δήλωσε από πλευράς του ο συνεισηγητής Dragos Tudorache (Renew, Ρουμανία).

Ακολουθήστε το insider.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις από την Ελλάδα και τον κόσμο.

Διαβάστε ακόμη

Επιχείρηση-ηλεκτρική σκούπα από τη Samsung με το ισχυρότερο AI μοντέλο όλων των εποχών

Bloomberg: Ο Λάρι Έλισον της Oracle ξεπέρασε τον Γκέιτς και έγινε ο 4ος πλουσιότερος άνθρωπος στον κόσμο

Η τεχνητή νοημοσύνη «ζωντανεύει» τη φωνή του Τζον Λένον για τους Beatles

gazzetta
gazzetta reader insider insider