Η τεχνητή νοημοσύνη μπορεί να εγκυμονεί «υπαρξιακούς κινδύνους» και οι κυβερνήσεις πρέπει να γνωρίζουν πώς να διασφαλίσουν ότι δεν θα υπάρξει κακοδιαχείριση της τεχνολογίας «από κακούς ανθρώπους», όπως προειδοποίησε την Τετάρτη ο πρώην διευθύνων σύμβουλος της Google, Έρικ Σμιντ.
«Ο υπαρξιακός κίνδυνος ορίζεται συλλογικά, όταν για παράδειγμα πάρα πολλοί άνθρωποι βλάπτονται ή σκοτώνονται από μια κατάσταση ή ένα καθεστώς», υπογράμμισε και εξήγησε: «Υπάρχουν σενάρια -όχι σήμερα- αλλά αρκετά σύντομα θα ξεδιπλωθούν, όπου αυτά τα συστήματα θα είναι σε θέση να βρουν νέα zero-day exploits σε ζητήματα στον κυβερνοχώρο ή να ανακαλύψουν νέα είδη βιολογίας. Τώρα, αυτό είναι στην σφαίρα του φαντασιακού σήμερα, αλλά αυτή η συλλογιστική είναι αληθινή. Και όταν συμβεί αυτό, πρέπει να βεβαιωθούμε ότι αυτά τα πράγματα δεν θα χρησιμοποιούνται από σατανικούς ανθρώπους».
Τα zero-day exploits είναι ευπάθειες στα συστήματα ασφαλείας που εντοπίζονται από χάκερ σε διάφορα είδη λογισμικών. Ο Σμιτ, ο οποίος ήταν Διευθύνων Σύμβουλος της Google από το 2001 έως το 2011, δεν ξεκαθάρισε πώς θα έπρεπε να είναι το ρυθμιστικό πλαίσιο λειτουργίας της τεχνητής νοημοσύνης, αλλά τόνισε ότι είναι ένα «ευρύτερο κοινωνικό ζήτημα».
Mάλιστα, δεν είναι το πρώτο σημαντικό πρόσωπο από τον τομέα της τεχνολογίας που προειδοποιεί για τους κινδύνους της τεχνητής νοημοσύνης.
Ο Σαμ Άλτμαν, Διευθύνων Σύμβουλος της Open AI που ίδρυσε το ChatGPT, παραδέχτηκε τον Μάρτιο ότι «φοβάται λίγο» την τεχνητή νοημοσύνη και ανησυχεί για αυταρχικές κυβερνήσεις ενώ και ο Έλον Μασκ ανέφερε στο παρελθόν ότι πιστεύει ότι η τεχνητή νοημοσύνη αντιπροσωπεύει έναν από τους «μεγαλύτερους κινδύνους» για τον πολιτισμό.