Beth Singler: Η τεχνητή νοημοσύνη δεν αλλάζει μόνο τις ζωές μας, αλλά κι εμάς ως ανθρώπους

Νίκη Παπάζογλου
Viber Whatsapp
Μοιράσου το
Beth Singler: Η τεχνητή νοημοσύνη δεν αλλάζει μόνο τις ζωές μας, αλλά κι εμάς ως ανθρώπους Συνέντευξη
Η καθηγήτρια ανθρωπολογίας του πανεπιστημίου του Cambridge, μιλά στο insider.gr για τον φόβο που γεννά στον άνθρωπο η τεχνητή νοημοσύνη.

Από το «Ταξίδι στη Σελήνη» - την πρώτη ταινία «επιστημονικής φαντασίας η οποία γυρίστηκε σχεδόν επτά δεκαετίες πριν ο άνθρωπος πατήσει το πόδι του εκεί, μέχρι και το πρόσφατο Ex Machina που εξετάζει το τι μπορεί να συμβεί αν η ευφυΐα των ρομπότ ξεπεράσει αυτή των ανθρώπων, ο θαυμασμός αλλά και ο φόβος μας για το άγνωστο καταγράφεται έντονος. Όσο μάλιστα η τεχνολογία εξελίσσεται και προστίθενται σε αυτή έννοιες όπως η τεχνητή νοημοσύνη, ο φόβος αυτός περιγράφεται από πολλούς ως μια σύγχρονη «Αποκάλυψη» η οποία θα έρθει εξαιτίας των ρομπότ που θα «αναλάβουν την εξουσία».

Πόσο πραγματικό είναι όμως ένα τέτοιο σενάριο κι από που πηγάζει η έντονη ανησυχία μας γι’ αυτό; Οι προαναφερθείσες τεχνολογίες έχουν σίγουρα τρωτά σημεία, τα οποία εδράζονται στο γεγονός ότι κατασκευάζονται από ανθρώπους. Οι φοβίες που γεννούν όμως, απορρέουν από «την βαθύτερη τάση μας να ελέγχουμε τα πράγματα ή κι από την ανησυχία μας να μην αντικατασταθούμε», όπως επισημαίνει η Beth Singler, καθηγήτρια ανθρωπολογίας του Πανεπιστημίου του Cambridge, η οποία μιλά στο insider.gr για την «μάχη» ανθρώπου και μηχανής με την αφορμή της συμμετοχής της στο 6ο Οικονομικό Φόρουμ των Δελφών που θα πραγματοποιηθεί 10-15 Μαΐου.

Σύμφωνα με την Singler οι εφαρμογές τεχνητής νοημοσύνης ενέχουν κινδύνους για τους ανθρώπους και για τα ανθρώπινα δικαιώματα γι' αυτό και χρίζουν ρύθμισης από τις αρμόδιες αρχές. Ο δε αντίκτυπός τους είναι τέτοιος που σταδιακά αλλάζει και την ίδια την ανθρώπινη φύση - «όσο περισσότερο τροφοδοτούμε με ευφυΐα τις μηχανές τόσο περισσότερο αντιμετωπίζουμε τους ανθρώπους ως μηχανές» επισημαίνει χαρακτηριστικά.

Κάπως έτσι και παρότι απέχουμε αρκετά, όπως αναφέρει, από τη στιγμή που το όραμα της Neuralink του Elon Musk θα γίνει πραγματικότητα, θα πρέπει να μας προβληματίσει το γεγονός ότι οδεύουμε προς τα εκεί χωρίς να αναρωτιόμαστε για τις δυνητικές επιβλαβείς συνέπειες, κάποιες εκ των οποίων είναι ήδη ορατές,

- Θα μπορούσατε να μας πείτε με τις ασχολείστε ακριβώς στο Πανεπιστήμιο του Cambridge;

Είμαι καθηγήτρια ανθρωπολογίας, ερευνήτρια της Τεχνητής Νοημοσύνης στο Homerton College του Cambridge. H δουλειά μου επικεντρώνεται κυρίως στο πώς αντιλαμβανόμαστε την τεχνητή νοημοσύνη και τα ρομπότ και τι είδους ελπίδες και φόβους νιώθουμε γι’ αυτά. Για να μελετήσω το παραπάνω εστιάζω στον τρόπο με τον οποίο παρουσιάζονται τα ρομπότ και η τεχνητή νοημοσύνη στον Τύπο, στις ειδήσεις, στις ταινίες και στην τηλεόραση ή ακόμα και στις συζητήσεις που κάνουμε μεταξύ μας. Ως ανθρωπολόγος μελετάω τους ανθρώπους και πιστεύω ότι η τεχνητή νοημοσύνη είναι ένα ενδιαφέρον θέμα στο ανθρώπινο μυαλό, το οποίο μας δίνει μια εικόνα για το τι εστί άνθρωπος και πρόοδος καθώς και για το πώς πιστεύουμε ότι θα εξελιχθεί το μέλλον. Μέσω των παραπάνω βέβαια ερχόμαστε αντιμέτωποι και με πολλές ηθικές και κοινωνικές προεκτάσεις της τεχνητής νοημοσύνης. Εξερευνώ τον συγκεκριμένο τομέα από το 2016, έχω υπάρξει βέβαια κομπιουτεράκιας (geek) για πολύ μεγαλύτερο διάστημα γεγονός που βοηθάει πολύ στο όλο εγχείρημα.

- Γιατί οι άνθρωποι φοβούνται τα ρομπότ και την τεχνητή νοημοσύνη; Με την αφορμή και του podcast σας με τίτλο «Τα ρομπότ θα μας σκοτώσουν;», θεωρείτε ότι οι άνθρωποι φοβούνται δικαίως ένα τέτοιο σενάριο; Ακόμα κι αν είμαστε μακριά από μια «Αποκάλυψη των Ρομπότ» όπως συνηθίζετε να την αποκαλείτε, οι υπάρχουσες εφαρμογές τεχνητής νοημοσύνης ενέχουν κινδύνους για τους ανθρώπους και για τα ανθρώπινα δικαιώματα;

Οι φόβοι μας για την τεχνητή νοημοσύνη πηγάζουν από την βαθύτερη τάση μας να ελέγχουμε τα πράγματα, την ανησυχία μας μήπως αντικατασταθούμε ή και την ανησυχία που έχουμε ως γονείς για την στιγμή της ανεξαρτησίας των παιδιών μας. Είναι σοκαριστικό για πολλούς να συνειδητοποιούν ότι έχουν δημιουργήσει ένα εντελώς ανεξάρτητο άτομο. Ο συγκεκριμένος φόβος - ότι τα ρομπότ θα αναλάβουν την εξουσία και θα μας σκοτώσουν, αποτυπώνεται στις σχετικές ιστορίες που δημιουργούμε για τα ρομπότ και την τεχνητή νοημοσύνη και έχει ιστορικό υπόβαθρο. Ας μην ξεχνάμε ότι έχουμε ήδη έρθει σε επαφή με άλλα ευφυή όντα στο παρελθόν κι έχουμε αποφασίσει αν αυτά αποτελούν άτομα με δικά τους δικαιώματα κι ελευθερίες. Το «έχουμε δει» που αναφέρω παραπάνω αφορά τον δυτικό πολιτισμό και «τα άλλα ευφυή άτομα» με τα οποία έχουμε έρθει σε επαφή είναι οι ιθαγενείς κουλτούρες, οι γυναίκες ή ακόμη και τα ζώα. Ο φόβος μας για μία «Αποκάλυψη των Ρομπότ» προέρχεται ωστόσο κι από υπάρχουσες φοβίες και αντανακλά τον τρόπο με τον οποίον αντιλαμβανόμαστε τους εαυτούς μας: ως «κυρίαρχους» που αντιμετωπίζουν μία εξέγερση «σκλάβων».

Ο φόβος μας για μια «Αποκάλυψη των Ρομπότ» μπορεί να είναι βέβαια και ένας αντιπερισπασμός από τα σύγχρονα προβλήματα που προκύπτουν από τις εφαρμογές της Τεχνητής Νοημοσύνης. Έχουμε ήδη δει πολλά παραδείγματα «αλγοριθμικής αδικίας», όπου οι μειονότητες ή οι υπό-εκπροσωπούμενες ομάδες επηρεάζονται αρνητικά από τις αποφάσεις αδιαφανών ή αόρατων αλγορίθμων. Έχουμε δει αλγόριθμους μηχανικής μάθησης να παίρνουν αποφάσεις που επηρεάζουν άμεσα την ζωή των ανθρώπων, το μέλλον και την ανάπτυξη τους. Για παράδειγμα αλγόριθμοι χρησιμοποιούνται για να αποφασιστεί η υπό όρους αποφυλάκιση κρατουμένων. Ωστόσο παρατηρήθηκε ότι οι «αποφάσεις» τους είναι πιο ευνοϊκές απέναντι στους λευκούς κρατούμενους από ότι στους έγχρωμους. Αντίστοιχα πέρυσι το καλοκαίρι στο Ηνωμένο Βασίλειο οι εξετάσεις ακυρώθηκαν λόγω κορονοϊού και οι καθηγητές χρειάστηκε να «προβλέψουν» τη βαθμολογία των μαθητών με την βοήθεια αλγορίθμων. Κατά την πρόβλεψη αυτή οι αλγόριθμοι αποδείχτηκαν μεροληπτικοί προς τα σχολεία που οι μαθητές τους είχαν ιστορικά χαμηλότερες βαθμολογίες. Το γεγονός προκάλεσε διαμαρτυρίες, πολλές εκ των οποίων επικεντρώθηκαν στους ίδιους τους αλγόριθμους, παραγνωρίζοντας το γεγονός ότι άνθρωποι αποφάσισαν να εξαγάγουν συμπεράσματα από ιστορικά δεδομένα που δεν ήταν αμερόληπτα.

- Έχετε αναφέρει σε προηγούμενη συνέντευξη σας ότι δεν είναι μόνο οι ζωές μας που αλλάζουν αλλά ότι αλλάζουμε κι εμείς ως άνθρωποι εξαιτίας της τεχνητής νοημοσύνης. Με ποιο τρόπο γίνεται αυτό;

Η αλήθεια είναι ότι βλέπω να πραγματοποιείται η αλλαγή των ανθρώπων εξαιτίας της τεχνητής νοημοσύνης με δύο διαφορετικούς τρόπους. Αρχικά αλλάζουμε τις μεταφορές που χρησιμοποιούμε στο λόγο μας ανάλογα με τις τεχνολογίες και τις ανακαλύψεις κάθε εποχής. Θυμηθείτε ότι στο παρελθόν σχετίζαμε την ύπαρξη του ανθρώπου με τον κόσμο, το ωροσκόπιο ή και το εργοστάσιο (σ.σ για παράδειγμα ο χαρακτηρισμός των ανθρώπων ως «γρανάζι της μηχανής»). Πλέον σχετίζουμε τον άνθρωπο με την τεχνητή νοημοσύνη. Καθώς όμως τροφοδοτούμε με ευφυία τις μηχανές αντιμετωπίζουμε όλο και περισσότερο και τους ίδιους του ανθρώπους ως μηχανές. Κι αυτή η οπτική που υιοθετούμε δεν περιέχει πολλές από τις πολυπλοκότητες της ανθρώπινης ύπαρξης, όπως τα ασαφή της όρια ή τις μη υπολογίσιμες διαστάσεις.

Αυτή η αλλαγή θεωρώ ότι συνοψίζεται στο παρακάτω ποίημα του Άγγλου συγγραφέας και ποιητή Michael Rosen, «The Data» (τα δεδομένα), το οποίο ήρθε εκ νέου στην επιφάνεια μετά και τους «μεροληπτικούς αλγόριθμους» που χρησιμοποιήθηκαν στα σχολεία.

«Στην αρχή είπαν ότι χρειαζόντουσαν δεδομένα (data) για τα παιδιά, για να ανακαλύψουν τί μαθαίνουν
Μετά ανέφεραν ότι χρειάζονταν δεδομένα για τα παιδιά, για να διασφαλίσουν ότι μαθαίνουν
Μετά τα παιδιά κατέληξαν να μαθαίνουν μόνο ότι μπορεί να εξελιχθεί σε δεδομένα
Ώσπου τα ίδια τα παιδιά μεταμορφώθηκαν σε δεδομένα».

Στο στίχο «τα παιδιά κατέληξαν να μαθαίνουν μόνο ότι μπορεί να εξελιχθεί σε δεδομένα» βρίσκεται και ο δεύτερος τρόπος αυτής της ρόμποτο-μορφοποίησης, δηλαδή του να αντιλαμβανόμαστε τους ανθρώπους ως μηχανές. Οι άνθρωποι αλλάζουμε συμπεριφορά για να ταιριάζουμε με το σύστημα. Το να βάζουμε όμως τους εαυτούς μας σε συγκεκριμένα καλούπια, το να χρησιμοποιούμε για παράδειγμα συγκεκριμένες λέξεις στο βιογραφικό μας σημείωμα για να ανιχνευτούμε από τους αλγόριθμους ως οι κατάλληλοι υποψήφιοι ή το να μαθαίνουμε «κόλπα» για να κάνουμε το ΥouTube να κατατάξει ψηλότερα το βίντεο μας, αλλάζει εντέλει την ίδια μας τη συμπεριφορά. Υπάρχουν πολλοί τρόποι με τους οποίους αλλάζουμε την ανθρώπινη συμπεριφορά για να μπορεί να «κατηγοριοποιηθεί» πιο εύκολα από τέτοιου τύπου τεχνολογικά συστήματα.

- Με αφορμή τον επερχόμενο κανονισμό της Ευρωπαϊκής Ένωσης για τα δεδομένα (data), ένα GDPR για την τεχνητή νοημοσύνη αν μπορώ να το θέσω έτσι, ποιες εφαρμογές της τεχνητής νοημοσύνης θα πρέπει να ρυθμιστούν και πώς;

Έχοντας διαβάσει μία εκδοχή του συγκεκριμένου εγγράφου της ΕΕ που διέρρευσε στον Τύπο είδα ότι αναγνωρίζει ότι υπάρχουν εφαρμογές υψηλού ρίσκου που χρίζουν ρύθμισης. Ως υψηλού ρίσκου εφαρμογές θα μπορούσαμε να χαρακτηρίσουμε πολλές, αυτές της αναγνώρισης προσώπου, των συστημάτων επιλογής υποψηφίων, των συστημάτων που βοηθούν στη λήψη δικαστικών αποφάσεων και των συστημάτων που χρησιμοποιούνται για την κατανομή παροχών.

Μια τέτοια ολιστική προσέγγιση ωστόσο είναι πιθανό να δεχτεί κριτική από εκείνους που πιστεύουν ότι θα παρεμποδίσει την πρόοδο της Ευρωπαϊκής Ένωσης σε συγκεκριμένους τομείς της τεχνητής νοημοσύνης, που αποδεικνύονται άκρως ανταγωνιστικοί στην παγκόσμια αγορά. Κι όμως αυτοί ακριβώς οι τομείς είναι οι τύπου των αδιαφανών συστημάτων που επηρεάζουν άμεσα τις ζωές των ανθρώπων. Όσο γι αυτό που λείπει, είναι ένα μορατόριουμ σε στρατιωτικές εφαρμογές τεχνητής νοημοσύνης αλλά πιστεύω ότι κάτι τέτοιο είναι εκτός του σκοπού του συγκεκριμένου κανονιστικού πλαισίου.

Σε κάθε περίπτωση βέβαια, σε όλες αυτές τις πτυχές χρειαζόμαστε εκπαίδευση και ενημέρωση ώστε το κοινό να κατανοήσει τι είναι δυνατόν να συμβεί, τι πραγματικά συμβαίνει και τι μπορεί να φέρει η τεχνητή νοημοσύνη. Αν το κοινό δεν ευαισθητοποιηθεί, δεν θα υποστηρίξει τέτοιες προσπάθειες ρύθμισης και οι πιο δυνατές φωνές θα εξακολουθήσουν να είναι αυτές των εταιρειών που θέλουν να εξερευνήσουν την οποιαδήποτε υψηλού κινδύνου χρήση της τεχνολογίας.

- Τον περασμένο Αύγουστο, ο Elon Musk παρουσίασε τα σχέδια της Neuralink για την διεπαφή ανθρώπου και μηχανής, δηλαδή ένα μικροτσίπ που εμφυτεύεται στον ανθρώπινο εγκέφαλο για να διαβάζει την δραστηριότητά του. Πώς προβλέπετε ότι θα εξελιχθεί αυτή η συμβίωση του ανθρώπινου μυαλού και των computers στο άμεσο μέλλον, τι μορφή θα πάρει, ποια τα πλεονεκτήματα και ποια τα ρίσκα της;

Η ιδέα της άμεσης σύνδεσης του ανθρώπου με το κομπιούτερ υπάρχει εδώ και καιρό και όχι μόνο στο πλαίσιο της επιστημονικής φαντασίας. Αυτό που προσπαθεί να κάνει η Neuralink είναι να μειώσει το μέγεθος και το κόστος μιας τέτοιας τεχνολογίας. Κάποιες προσπάθειες δηλαδή επικεντρώνονται στην εμπορική εκμετάλλευση τέτοιων τεχνολογιών και σίγουρα θα υπάρξουν άνθρωποι που θα τις δουν σαν μια συναρπαστική νέα διεπαφή. Ωστόσο, όπως επισημαίνετε, υπάρχει και η άποψη ότι τέτοιες τεχνολογίες θα εξελιχθούν σε μια συμβιωτική σχέση ανθρώπων και μηχανών. Μια μορφή του Singularity περιλαμβάνει μάλιστα αυτή την συνένωση των δύο «πολιτισμών».

Αν βλέπεις μια τέτοια εξέλιξη ως ουτοπία τότε πιθανό να σου φαίνεται και συναρπαστική. Κάποιοι όμως εκφράζουν έντονες ανησυχίες σχετικά με την ιδιωτικότητα, τον έλεγχο και την ελεύθερη βούληση στην περίπτωση που τα κομπιούτερ μπορούν να διασυνδεθούν με τον ανθρώπινο εγκέφαλο.

Ο Elon Μusk έχει επίσης δηλώσει ότι βλέπει την Neuralink ως τον μοναδικό τρόπο με τον οποίο οι άνθρωποι θα μπορέσουν να συναγωνιστούν τις όλο και πιο έξυπνες μηχανές στο μέλλον. Αυτό που βλέπει ως πρακτικό μονοπάτι στην ανθρώπινη ελευθερία μοιάζει να καταπραΰνει τον ίδιο του το φόβο.

Αυτή την περίοδο η τεχνολογία δεν βρίσκεται κοντά σε κάτι τέτοιο. Αλλά αυτό που βρίσκω εξαιρετικά ενδιαφέρον ως ανθρωπολόγος είναι οι υποθέσεις που συνοδεύουν τέτοιες ελπίδες η φόβους. Θα βλέπουμε τους εαυτούς μας «λιγότερους» κατά κάποιο τρόπο, εάν δεν αποκτήσουμε αυτές τις ικανότητες; Τι σημαίνει το γεγονός ότι οδεύουμε προς τα εκεί, χωρίς να αναρωτιόμαστε για τις δυνητικές επιβλαβείς συνέπειες, κάποιες από τις οποίες είναι ήδη εμφανείς. Για παράδειγμα η ερώτηση σας δεν αναφέρει κάτι σχετικό με την πειραματική χρήση της συγκεκριμένης τεχνολογίας πάνω σε μια μαϊμού η οποία εξαναγκάζεται να παίζει video games με κίνητρο την ανταμοιβή. Κι αυτό παρότι ο Musk επιμένει ότι η Neuralink έχει ένα από τα πιο φιλικά προς τα ζώα πειραματικό εργαστήριο.

Ένα ακόμα πρόβλημα μπορεί να προκύψει και κατά την διανομή μιας τεχνολογίας τέτοιου τύπου. Εάν μέσω αυτής της τεχνολογίας οδηγούμαστε σε πιο αποδοτικούς ή πιο έξυπνους ανθρώπους, ποιος θα πρέπει να βάλει το τσιπ. Οι πιο πλούσιοι; Ή οι πιο φτωχοί οι οποίοι θα μπορούν να βρουν δουλειά μόνο υπό την προϋπόθεση μιας τέτοιου τύπου διεπαφής. Υπάρχουν πάρα πολλά ερωτήματα που ανακύπτουν από τέτοιου είδους προσπάθειες προς τις έξυπνες μηχανές και πιστεύω ότι η ανθρωπολογική προσέγγιση μας βοηθά να καταλάβουμε τα προβλήματα που εμπεριέχουν καθώς και προς τα πού οδεύουμε.

Ακολουθήστε το insider.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις από την Ελλάδα και τον κόσμο.

Διαβάστε ακόμη

Η ΕΕ προτείνει νέους κανόνες και δράσεις για την αριστεία και την εμπιστοσύνη στην τεχνητή νοημοσύνη

Έλον Μασκ: Έχασε 5,6 δισ. δολάρια λόγω του τροχαίου με αυτοκίνητο Tesla

Τα foldable smartphones θα γίνουν τελικά mainstream

BEST OF LIQUID MEDIA

gazzetta
gazzetta reader insider insider