«Ως υπολογιστικό μοντέλο, δεν έχω τη δυνατότητα να πιστεύω, να αισθάνομαι ή να έχω αυτοσυνείδηση, καθώς απλά εκτελώ αλγορίθμους και λειτουργώ βάσει των δεδομένων που έχω εκπαιδευτεί να αναγνωρίζω. Είμαι ένα εργαλείο που χρησιμοποιείται για να παρέχει απαντήσεις και να βοηθήσει στην επίλυση προβλημάτων, αλλά δεν έχω δική μου αντίληψη ή προτίμηση». Αυτή ήταν η απάντηση που μας έδωσε το Chat GPT3 στην ερώτηση «τι πιστεύεις για τον εαυτό σου;». Ρωτώντας το μάλιστα αν θεωρεί ότι έχει μετατραπεί σε μήλον της έριδος της σύγχρονης επιχειρηματικής και πολιτικής σκηνής, απάντησε εν μέρει διπλωματικά, τονίζοντας και πάλι την υπολογιστική του φύση, την απώλεια αυτοσυνείδησης και την αδυναμία του να αναγνωρίσει τον εαυτό του ως αντικείμενο στη συζήτηση. Συμπλήρωσε ωστόσο το πόσο σημαντικό είναι - μάλλον εν γένει αφού το ίδιο δεν αυτοπροσδιορίζεται - «να λαμβάνουμε υπόψη μας τις ηθικές και κοινωνικές επιπτώσεις της τεχνολογίας και να συζητούμε και να αναζητούμε τρόπους για να εξασφαλίσουμε ότι η τεχνολογία χρησιμοποιείται με σκοπό το κοινό καλό και σεβόμενοι τα δικαιώματα και την ιδιωτικότητα των ανθρώπων».
Οι παραπάνω απαντήσεις που δίνει η ίδια η τεχνολογία για τον «εαυτό» της βέβαια, δεν είναι αρκετές να καθησυχάσουν την παγκόσμια κοινότητα για την ύπαρξη μιας μηχανής, που παρά την υπολογίστική της φύση συζητά με τον οποιονδήποτε με, έστω και κατ’ επίφαση, ισότιμους όρους. Γι’ αυτό και οι μέχρι σήμερα υπάρχουσες αντιδράσεις για το next big thing της τεχνολογικής σκηνής, κινούνται στα άκρα με το Chat CPT3 και το «αυτοδημιούργητο» Chat GPT4 να συγκεντρώνει είτε υπέρμαχους, είτε «εχθρούς».
Οι «φίλοι» και οι εναλλακτικές που βρίσκονται στα σκαριά
Στους υπέρμαχους με την ευρύτερη έννοια συγκαταλέγονται όλοι εκείνοι που σχεδιάζουν να εκμεταλλευτούν στο έπακρο τις αλγοριθμικές του δυνατότητες καθώς κι εκείνοι που μοχθούν για να δημιουργήσουν το αντίπαλο δέος του. Για παράδειγμα παρά τις συχνές και σοβαρές ανακρίβειές του, το ChatGPT έκανε τον ιδρυτή της Wikipedia, Jimmy Wales, να σκέφτεται σοβαρά πώς η τεχνητή νοημοσύνη μπορεί να γίνει μέρος της ροής εργασιών της γνωστής εγκυκλοπαίδειας. Σύμφωνα με τα όσα ο ίδιος ανέφερε σε συνέντευξή του στην Evening Standard, «χρησιμοποιώντας την τεχνητή νοημοσύνη για τον τριπλασιασμό των καταχωρήσεων της Wikipedia, δεν θα αυξανόταν το κόστος λειτουργίας μας περισσότερο από 1.000 £ ετησίως». Αντίστοιχα και η Meta, δήλωσε ότι στοχεύει να χρησιμοποιήσει generative AI για τη δημιουργία διαφημίσεων, μέχρι το τέλος του έτους.
Την ίδια στιγμή, τόσο στην άλλη πλευρά του Ατλαντικού όσο και στην Ασία, οι προσπάθειες για την δημιουργία εναλλακτικών του Chat GPT3 αυξάνουν. Μετά την κινεζική Baidu και το «Ernie Bot» που παρουσίασε τον Μάρτιο, στη λίστα προστέθηκε και η Alibaba με την εναλλακτική Tongyi Qianwen. Αντίστοιχα πέρα από τους τεχνολογικούς κολοσσούς που πειραματίζονται με την δημιουργία νέων γλωσσικών μοντέλων για τους προγραμματιστές, προσπάθειες για να δημιουργήσει το αντίπαλο δέος του Chat GPT κάνει και ο Elon Musk. Σύμφωνα με άρθρο των Financial Times, ο εκκεντρικός ιδιοκτήτης του Twitter στρατολογεί ερευνητές και μηχανικούς για να δημιουργήσει μια νέα startup τεχνητής νοημοσύνης ικανή να ανταγωνιστεί την Open AI (δημιουργό του Chat GPT3). Ήδη μάλιστα φέρεται να βρίσκεται σε συζητήσεις με αρκετούς επενδυτές των SρaceX και Tesla, ώστε να χρηματοδοτήσουν το νέο του εγχείρημα, για το οποίο έχει εξασφαλίσει χιλιάδες τσιπ υψηλών προδιαγραφών από την Nvidia. Στόχος είναι να δημιουργήσει ένα μοντέλο τεχνητής νοημοσύνης που θα εκπαιδευτεί για να μπορεί να γράφει ή να παράγει ρεαλιστικές εικόνες. Κι όλα αυτά παρότι είχε συνυπογράψει την επιστολή των γκουρού της τεχνολογίας η οποία επεσήμανε ότι «τα συστήματα ΑΙ με ανθρώπινη ανταγωνιστική νοημοσύνη μπορούν να θέσουν βαθύτατους κινδύνους για την κοινωνία και την ανθρωπότητα».
Οι αντιδράσεις και οι προκλήσεις
Φυσικά η προαναφερθείσα αντίδραση δεν ήταν η μόνη. Η λίστα όσων εκφράζουν αντιρρήσεις ή ζητούν να μπει φρένο στην χρήση και ανάπτυξη του Chat GPT είναι εξίσου μεγάλη.
Μετά την Ιταλία, όπου η υπηρεσία προστασίας δεδομένων της χώρας απαγόρευσε προσωρινά το Chat GPT, θέτοντας την Open AI «εκτός σύνδεσης», ο Γερμανός Επίτροπος Προστασίας Δεδομένων, προειδοποίησε ότι κάτι αντίστοιχο θα μπορούσε να συμβεί και στη Γερμανία. Αιτία οι ανησυχίες για την διασφάλιση των προσωπικών δεδομένων, τα οποία το ίδιο το Chat GPT στην απάντηση που μας έδωσε διατείνεται ότι πρέπει να λαμβάνουμε σοβαρά υπόψη. Οι δύο χώρες δεν είναι οι μοναδικές. Γαλλία και Ιρλανδία παρακολουθούν την κατάσταση για να διαπιστώσουν αν το τεχνολογικό αυτό εργαλείο παραβιάζει τους κανόνες του GDPR. Οι εντεινόμενες ανησυχίες κρατών μελών της Ένωσης μάλιστα οδήγησαν πρόσφατα και το αρμόδιο ευρωπαϊκό όργανο, το Ευρωπαϊκό Συμβουλίο Προστασίας Δεδομένων (EDPB), να δημιουργήσει ειδική ομάδα εργασίας για το ChatGPT. Βήμα που ίσως ανοίγει το δρόμο για κοινή πολιτική προστασίας της ιδιωτικότητας από την τεχνητή νοημοσύνη.
Στην άλλη πλευρά του Ατλαντικού, συνάντηση με τους συμβούλους του για τους κινδύνους και τις ευκαιρίες που φέρνουν στο προσκήνιο οι ραγδαίες εξελίξεις στην ανάπτυξη της τεχνητής νοημοσύνης είχε και ο Αμερικανός Πρόεδρος, Joe Biden. Όσο για τις καναδικές Αρχές, αρμόδιες για θέματα απορρήτου, ξεκίνησαν έρευνα γύρω από την OpenAI και το Chat GPT, μετά από καταγγελία που έλαβε ο εποπτικός φορέας, για χρήση πληροφοριών χωρίς την συγκατάθεση των χρηστών.
Τέλος, στην περίπτωση της Αυστραλίας, ήδη εστάλη το πρώτο εξώδικο στην μαμά εταιρεία του Chat GPT από τον δήμαρχο του Χέπμπουρν Σάιντ, Μπράιαν Χούντ. Ο λόγος ότι το Chat GPΤ ανέφερε τον Χούντ ως καταδικασμένο για δωροδοκία, ενώ είναι ο άνθρωπος κλειδί που την αποκάλυψε. Το εξώδικο ζητά το Chat GPT να «ανακαλέσει» εντός 28 ημερών σε διαφορετική περίπτωση ο Χουντ θα προχωρήσει σε αγωγή για συκοφαντική δυσφήμιση…
Η χρήση ενός ισχυρού εργαλείου χωρίς κανόνες είναι λογικό να γεννά ανησυχίες για τους κινδύνους που εγκυμονεί. Οι αντιδράσεις ωστόσο της απαγόρευσης φέρνουν στο νου άλλες εποχές. Κι όπως ανέφερε και ο Bill Gates σε πρόσφατη συνέντευξή του «οι εκκλήσεις για παύση της ανάπτυξης της τεχνητής νοημοσύνης δεν θα λύσουν τις προκλήσεις». Θα ήταν καλύτερα να επικεντρωθούμε στον βέλτιστο τρόπο χρήσης των εξελίξεων αυτών. Ίσως όμως σε λίγο πιο σύντομους χρόνους από ό,τι συνηθίζαμε μέχρι σήμερα.