Μετά τη δήλωση αυτή, οι υπεύθυνοι χάραξης πολιτικής των ΗΠΑ, συμπεριλαμβανομένου του Αμερικανού προέδρου Τζο Μπάιντεν, συναντήθηκαν με τους ηγέτες του κλάδου και πίεσαν για νέα μέτρα ασφάλειας της ΑΙ. Αλλά η ιστορία προσφέρει πολλά παραδείγματα για να αντιληφθεί ένας απλός άνθρωπος ότι αν το κενό ανάμεσα στην παραδοχή του κινδύνου και στην αντιμετώπισή του είναι γεμάτο λεφτά, τότε για τις εξουσίες το οικονομικό αποτέλεσμα μετρά περισσότερο και από την πιο θανάσιμη απειλή.
Στην περίπτωση της τεχνητής νοημοσύνης τόσο τα κεφάλαια που έχουν επενδυθεί όσο και τα προσδοκώμενα οφέλη (οικονομικά, πολιτικά, κοινωνικά, γεωπολιτικά κ.ά.) είναι ανυπολόγιστα. Ετσι είναι πολύ πιθανό, την ώρα που θα αξιολογούνται οι υπαρξιακοί κίνδυνοι από την τεχνητή νοημοσύνη, οι εξουσίες αντί να αναζητούν τρόπους να τις αντιμετωπίσουν να ψάχνουν εναλλακτικές ώστε να μην επηρεαστεί –ή να επηρεαστεί στο ελάχιστο δυνατό– το οικονομικό αποτέλεσμα. Και δεν υπάρχει αμφιβολία ότι στην προσπάθεια αυτή θα έχουν έναν ισχυρό σύμμαχο: την άγνοια των πολλών.
Σήμερα κανείς δεν γνωρίζει πόσο επικίνδυνη είναι η τεχνητή νοημοσύνη και ούτε πόσο καταστροφική μπορεί να γίνει στο μέλλον. Η γνώση των ανθρώπων είναι από περιορισμένη έως μέχρι ανύπαρκτη, επειδή η πληροφόρηση είναι επιλεκτικά αποσπασματική, αλλά αρκετή για να σχηματίσει αντίληψη για ένα εφιαλτικό αύριο.
Οπως αναφέρουν σε άρθρο τους οι Markus Anderljung, επικεφαλής πολιτικής στο Centre for the Governance of AI, και Paul Scharre, συγγραφέας του βιβλίου με τίτλο «Four Battlegrounds: Power in the Age of Artificial Intelligence», «χημικοί έβαλαν ένα σύστημα τεχνητής νοημοσύνης να εντοπίσει 40.000 τοξικές χημικές ουσίες σε έξι ώρες, πολλές από τις οποίες ήταν εντελώς νέες. Προέβλεψε ότι ορισμένες από αυτές τις δημιουργίες θα ήταν πιο τοξικές από οποιοδήποτε προηγουμένως γνωστό χημικό όπλο». Οι ίδιοι αποκαλύπτουν ότι «η τεχνητή νοημοσύνη θα διευκολύνει την παραγωγή παραπληροφόρησης σε βιομηχανική κλίμακα» και προειδοποιούν ότι χάρη «στην ΑΙ, αντί να απαιτείται επιστημονική εξειδίκευση, το μόνο που θα χρειάζεται ένας μελλοντικός τρομοκράτης για να παρασκευάσει ένα θανατηφόρο παθογόνο, είναι μια σύνδεση στο Διαδίκτυο».
Κείμενα που δημοσιεύονται σε έγκριτες εκδόσεις αναφέρουν ότι με τη χρήση της AI ένας αδαής θα μπορούσε να έχει πρόσβαση σε «οδηγίες για την παραγωγή ενός χημικού όπλου της εποχής του Α’ Παγκοσμίου Πολέμου, ενός κοινού ναρκωτικού για βιασμό και του σαρίν (διαβόητα θανατηφόρο νευροπαραλυτικό αέριο)».
Ο Nicholas Wright, γιατρός και νευροεπιστήμονας που εργάζεται στις αναδυόμενες τεχνολογίες και στην παγκόσμια στρατηγική στο University College του Λονδίνου, σε πρόσφατο άρθρο του αναφέρεται στις δυνατότητες που προσφέρει στις κυβερνήσεις η Τεχνητή Νοημοσύνη «να παρακολουθούν, να κατανοούν και να ελέγχουν τους πολίτες τους, πολύ πιο στενά από ποτέ άλλοτε». Διευκρινίζει ότι «οι νέες τεχνολογίες θα επιτρέψουν υψηλά επίπεδα κοινωνικού ελέγχου με λογικό κόστος. Οι κυβερνήσεις θα μπορούν να λογοκρίνουν επιλεκτικά θέματα και συμπεριφορές [και] να περιορίζουν τις πολιτικές συζητήσεις που μπορεί να βλάψουν το καθεστώς».
Ο Josh A. Goldstein, επιστημονικός συνεργάτης του CyberAI Project στο Center for Security and Emerging Technology του Πανεπιστημίου Georgetown, και ο Girish Sastry, ερευνητής στην ομάδα πολιτικής του OpenAI, αναφέρονται στις δυνατότητες που προσφέρουν τα γλωσσικά μοντέλα που κατασκευάζονται με την τεχνητή νοημοσύνη στην παραγωγή προπαγάνδας με χαμηλότερο κόστος. Οπως επισημαίνουν, τα μοντέλα αυτά μπορούν να αντλήσουν δεδομένα από την κοινωνικοπολιτισμική δράση μιας συγκεκριμένης δημογραφικής ομάδας και να αναπτύξουν περιεχόμενο που θα απευθύνεται σε ένα κοινό-στόχο.
Αλλά και οι πόλεμοι του αύριο με τη χρήση εφαρμογών ΑΙ δεν θα έχουν καμία σχέση με ό,τι γνωρίζουμε. Τα παραδοσιακά στρατιωτικά συστήματα και τεχνολογίες προέρχονται από έναν κόσμο όπου οι άνθρωποι λαμβάνουν επιτόπου ή τουλάχιστον σε πραγματικό χρόνο αποφάσεις ζωής και θανάτου. Σύμφωνα με τη Lauren Kahn, ερευνήτρια στο Council on Foreign Relations, τα στρατιωτικά συστήματα με τεχνητή νοημοσύνη θα εξαρτώνται λιγότερο από το ανθρώπινο στοιχείο και τα μελλοντικά αυτόνομα συστήματα ίσως να μην το έχουν καθόλου.
Αν αναζητήσει κανείς στο διαδίκτυο άρθρα και μελέτες για τους κινδύνους από την ΑΙ, θα καταλήξει στο συμπέρασμα ότι η μείζων πρόκληση για τον σημερινό άνθρωπο είναι η διαχείριση των κινδύνων της δικής της ιδιοφυΐας. Υπό το πρίσμα αυτό, οι σημερινές ενέργειες και επιλογές επηρεάζουν το πώς θα ζήσουν οι απόγονοί μας – είτε θα αντιμετωπίσουν φτώχεια είτε αφθονία, πόλεμο ή ειρήνη, σκλαβιά ή ελευθερία.
Ο Ουίνστον Τσόρτσιλ το 1946, με τον χαρακτηριστικό λυρισμό του, είχε πει: «Η Λίθινη Εποχή μπορεί να επιστρέψει στα αστραφτερά φτερά της επιστήμης και θα μπορούσε να φέρει [...] ίσως ακόμα και να προκαλέσει την ολοκληρωτική καταστροφή». Λίγα χρόνια αργότερα, ο πρόεδρος των ΗΠΑ Αϊζενχάουερ επανέλαβε αυτές τις ανησυχίες προειδοποιώντας ότι «η επιστήμη φαίνεται έτοιμη να μας δώσει, ως το τελευταίο της δώρο, τη δύναμη να διαγράψουμε την ανθρώπινη ζωή από αυτόν τον πλανήτη».
Η παράδοση του ανθρώπου στις πολυεθνικές, οι οποίες ανεξέλεγκτες στο όνομα του κέρδους αξιοποίησαν την ανθρώπινη γνώση για να αναπτύξουν τεχνολογίες που οδηγούν στην καταστροφή του, είναι πλέον γεγονός. Μια πρόσφατη έκθεση του Εθνικού Συμβουλίου Πληροφοριών των ΗΠΑ προσδιόρισε την «απόδραση» της τεχνητής νοημοσύνης, τις κατασκευασμένες πανδημίες, τα όπλα νανοτεχνολογίας και τον πυρηνικό πόλεμο ως «απειλές που θα μπορούσαν να βλάψουν τη ζωή σε παγκόσμια κλίμακα» και «να αμφισβητήσουν την ικανότητά μας να φανταστούμε και να κατανοήσουμε το δυνητικό εύρος και την κλίμακά τους».
Ολα αυτά, που φέρνουν στο μυαλό τον Γιόζεφ Σουμπέτερ και τη θεωρία περί «δημιουργικής καταστροφής», σε κάνουν να σκεφτείς: όταν ο Αυστριακός οικονομολόγος έγραφε το «Καπιταλισμός, Σοσιαλισμός & Δημοκρατία» είχε κατά νου τις αυτοκαταστροφικές συνέπειες της «καινοτομίας»;
Δημοσιογράφος, συγγραφέας
Η efsyn.gr θεωρεί αυτονόητο ότι οι αναγνώστες της έχουν το δικαίωμα του σχολιασμού, της κριτικής και της ελεύθερης έκφρασης και επιδιώκει την αμφίδρομη επικοινωνία μαζί τους.
Διευκρινίζουμε όμως ότι δεν θέλουμε ο χώρος σχολιασμού της ιστοσελίδας να μετατραπεί σε μια αρένα απαξίωσης και κανιβαλισμού προσώπων και θεσμών. Για τον λόγο αυτόν δεν δημοσιεύουμε σχόλια ρατσιστικού, υβριστικού, προσβλητικού ή σεξιστικού περιεχομένου. Επίσης, και σύμφωνα με τις αρχές της Εφημερίδας των Συντακτών, διατηρούμε ανοιχτό το μέτωπο απέναντι στον φασισμό και τις ποικίλες εκφράσεις του. Έτσι, επιφυλασσόμαστε του δικαιώματός μας να μην δημοσιεύουμε ανάλογα σχόλια.
Σε όσες περιπτώσεις κρίνουμε αναγκαίο, απαντάμε στα σχόλιά σας, επιδιώκοντας έναν ειλικρινή και καλόπιστο διάλογο.
Η efsyn.gr δεν δημοσιεύει σχόλια γραμμένα σε Greeklish.
Τέλος, τα ενυπόγραφα άρθρα εκφράζουν το συντάκτη τους και δε συμπίπτουν κατ' ανάγκην με την άποψη της εφημερίδας