Mpelalis Reviews

Mpelalis Reviews

Κυριακή 7 Μαΐου 2023

New York Times: Κανείς δεν γνωρίζει πραγματικά για το τι είναι ικανή να κάνει η Τεχνητή Νοημοσύνη ως προς τον έλεγχο των Πυρηνικών Όπλων


Ορισμένα όπλα λειτουργούν ήδη με αυτόματο πιλότο. Οι πύραυλοι Patriot, που καταρρίπτουν πυραύλους ή αεροπλάνα που εισέρχονται σε προστατευμένο εναέριο χώρο, έχουν εδώ και καιρό μια ανάλογη "αυτόματη" λειτουργία

Από τον David E. Sanger/New York Times

Όταν ο Joe Biden ανακοίνωσε τον Οκτώβριο αυστηρούς περιορισμούς στην πώληση των πιο προηγμένων τσιπ υπολογιστών στην Κίνα, «πούλησε» την απόφαση του, εν μέρει, ως τρόπο να δώσει στην αμερικανική βιομηχανία την ευκαιρία να αποκαταστήσει την ανταγωνιστικότητά της. Αλλά στο Πεντάγωνο και στο Συμβούλιο Εθνικής Ασφάλειας των ΗΠΑ υπήρχε πάντα μια δεύτερη ατζέντα: Ο έλεγχος των όπλων.
Εάν ο κινεζικός στρατός δεν μπορεί να αποκτήσει τα τσιπ, λέει η θεωρία, μπορεί να επιβραδυνθεί η προσπάθειά του να αναπτύξει όπλα που να στηρίζονται στην Τεχνητή Νοημοσύνη. Αυτό θα έδινε στον Λευκό Οίκο και στη Δύση χρόνο να θέσουν ορισμένα κρίσιμα κριτήρια για τη χρήση της Τεχνητής Νοημοσύνης σε αισθητήρες, πυραύλους και κυβερνοόπλα και τελικά να προφυλαχθούν από μερικούς από τους εφιάλτες που συχνά παρουσιάζει το Χόλιγουντ -αυτόνομα ρομπότ δολοφόνοι και υπολογιστές που κλειδώνουν έξω τους ανθρώπινους δημιουργούς τους.
Ωστόσο, πλέον, η ομίχλη του φόβου που περιβάλλει το δημοφιλές ChatGPT chatbot και άλλα δημιουργήματα λογισμικού Τεχνητής Νοημοσύνης έχει κάνει τον περιορισμό των τσιπ στο Πεκίνο να μοιάζει απλώς με μια προσωρινή επιδιόρθωση.
Όταν ο Αμερικανός πρόεδρος πραγματοποίησε μια συνάντηση στον Λευκό Οίκο την Πέμπτη με στελέχη της τεχνολογίας που προσπαθούν να περιορίσουν τους κινδύνους που προέρχονται από αυτή την τεχνολογία, το πρώτο του σχόλιο ήταν ότι «αυτό που κάνετε έχει τεράστιες δυνατότητες αλλά ενέχει και τεράστιους κινδύνους».
Ήταν μια αντανάκλαση, λένε οι βοηθοί στην Εθνική Ασφάλεια, πρόσφατων απόρρητων ενημερώσεων σχετικά με το ενδεχόμενο η νέα τεχνολογία να ανατρέψει τον πόλεμο, τις συγκρούσεις στον κυβερνοχώρο και —στην πιο ακραία περίπτωση— τη λήψη αποφάσεων για τη χρήση πυρηνικών όπλων.
Ωστόσο, ακόμη και όταν ο Biden εξέδιδε την προειδοποίησή του, αξιωματούχοι του Πενταγώνου, μιλώντας σε φόρουμ τεχνολογίας, ανέφεραν ότι θεωρούν πως η ιδέα μιας εξάμηνης παύσης στην ανάπτυξη των επόμενων γενεών του ChatGPT και παρόμοιου λογισμικού είναι μια κακή ιδέα: Οι Κινέζοι δεν θα το κάνουν, ούτε και οι Ρώσοι.
«Αν σταματήσουμε, μαντέψτε ποιος δεν πρόκειται να κάνει πίσω: Πιθανοί αντίπαλοι στο εξωτερικό», δήλωσε την Τετάρτη ο επικεφαλής πληροφοριών του Πενταγώνου, John Sherman. «Πρέπει να συνεχίσουμε να κινούμαστε».
Η ωμή δήλωσή του υπογραμμίζει την ένταση που είναι αισθητή σε όλη την αμυντική κοινότητα σήμερα. Κανείς δεν ξέρει πραγματικά για το τι είναι ικανές αυτές οι νέες τεχνολογίες να κάνουν, όσον αφορά την ανάπτυξη και τον έλεγχο όπλων, και δεν έχει ιδέα τι είδους καθεστώς ελέγχου των όπλων, αν υπάρχει, μπορεί να λειτουργήσει.
Το προαίσθημα είναι ασαφές, αλλά βαθιά ανησυχητικό. Θα μπορούσε το ChatGPT να δώσει τεράστια δύναμη σε ανθρώπους και χώρες που προηγουμένως δεν είχαν καμία πρόσβαση στην τεχνολογία της καταστροφής; Θα μπορούσε να επιταχύνει τις αντιπαραθέσεις μεταξύ των υπερδυνάμεων, αφήνοντας ελάχιστο χρόνο για διπλωματία και διαπραγματεύσεις;
«Ο κλάδος δεν είναι ανόητος και ήδη βλέπετε προσπάθειες αυτορρύθμισης», ανέφερε ο Eric Schmidt, ο πρώην πρόεδρος της Google που υπηρέτησε και ως επικεφαλής, την πρώτη περίοδο, του συμβουλευτικού Συμβουλίου Αμυντικής Καινοτομίας από το 2016 έως το 2020.
«Έτσι, υπάρχει μια σειρά από άτυπες συζητήσεις που λαμβάνουν χώρα τώρα στον κλάδο -όλες ανεπίσημες- σχετικά με τους κανόνες της χρήσης Τεχνητής Νοημοσύνης όσον αφορά την ασφάλεια», τόνισε ο Schmidt, ο οποίος έχει γράψει, μαζί με τον πρώην υπουργό Εξωτερικών, Henry Kissinger, μια σειρά άρθρων και βιβλίων σχετικά με τις δυνατότητες της τεχνητής νοημοσύνης να ανατρέψει τη γεωπολιτική.
Η προκαταρκτική προσπάθεια τοποθέτησης προστατευτικών κιγκλιδωμάτων στο σύστημα είναι σαφής σε όποιον δοκίμασε τα αρχικά στάδια του ChatGPT. Τα ρομπότ δεν απαντούν σε ερωτήσεις σχετικά με το πώς να βλάψετε κάποιον με ένα παρασκεύασμα ναρκωτικών, για παράδειγμα, ή πώς να ανατινάξετε ένα φράγμα ή να σακατέψετε διάφορα πυρηνικά φυγόκεντρα.
Αλλά αυτές οι μαύρες λίστες ενεργειών δεν θα επιβραδύνουν την κακή χρήση αυτών των συστημάτων. Λίγοι πιστεύουν ότι μπορούν να σταματήσουν εντελώς τέτοιες προσπάθειες. Υπάρχει πάντα ένας πλάγιος τρόπος να παρακάμψει κάποιος τα όρια ασφαλείας, όπως μπορεί να επιβεβαιώσει οποιοσδήποτε έχει προσπαθήσει να απενεργοποιήσει τα ηχητικά σήματα στο σύστημα προειδοποίησης της ζώνης ασφαλείας ενός αυτοκινήτου.
Αν και το νέο λογισμικό έχει δημοσιοποιήσει το ζήτημα, δεν είναι νέο για το Πεντάγωνο. Οι πρώτοι κανόνες για την ανάπτυξη αυτόνομων όπλων δημοσιεύθηκαν πριν από μια δεκαετία. Το Κοινό Κέντρο Τεχνητής Νοημοσύνης του Πενταγώνου ιδρύθηκε πριν από πέντε χρόνια για να διερευνήσει τη χρήση της τεχνητής νοημοσύνης στη μάχη.
Ορισμένα όπλα λειτουργούν ήδη με αυτόματο πιλότο. Οι πύραυλοι Patriot, που καταρρίπτουν πυραύλους ή αεροπλάνα που εισέρχονται σε προστατευμένο εναέριο χώρο, έχουν εδώ και καιρό μια ανάλογη «αυτόματη» λειτουργία. Αυτή τους δίνει τη δυνατότητα να χτυπούν χωρίς ανθρώπινη παρέμβαση όταν κατακλύζονται από εισερχόμενους στόχους πιο γρήγορα από ό,τι θα μπορούσε να αντιδράσει ένας άνθρωπος. Υποτίθεται όμως ότι επιβλέπονται από ανθρώπους που μπορούν να αποτρέψουν τις επιθέσεις αν χρειαστεί.
Η δολοφονία του Mohsen Fakhrizadeh, του κορυφαίου πυρηνικού επιστήμονα του Ιράν, διεξήχθη από την Μοσάντ του Ισραήλ χρησιμοποιώντας ένα αυτόνομο πολυβόλο που υποβοηθήθηκε από τεχνητή νοημοσύνη, αν και φαίνεται ότι υπήρχε υψηλός βαθμός τηλεχειρισμού. Η Ρωσία δήλωσε πρόσφατα ότι έχει αρχίσει να κατασκευάζει —αλλά δεν έχει ακόμη αναπτύξει— την υποθαλάσσια πυρηνική τορπίλη Poseidon. Εάν ανταποκρίνεται σε αυτά που διαλαλεί η ρωσική διαφημιστική εκστρατεία, το όπλο θα είναι σε θέση να ταξιδέψει σε έναν ωκεανό αυτόνομα, αποφεύγοντας τις υπάρχουσες αντιπυραυλικές άμυνες, για να χτυπήσει ημέρες μετά την εκτόξευσή της.
Μέχρι στιγμής δεν υπάρχουν συνθήκες ή διεθνείς συμφωνίες που να ασχολούνται με τέτοια αυτόνομα όπλα. Σε μια εποχή που οι συμφωνίες ελέγχου των όπλων εγκαταλείπονται πιο γρήγορα από ό,τι διαπραγματεύονται, υπάρχει μικρή προοπτική για μια τέτοια συμφωνία. Αλλά το είδος των προκλήσεων που θέτει το ChatGPT και τα παρόμοια του συστήματα είναι διαφορετικά και κατά κάποιο τρόπο πιο περίπλοκα.
Στον στρατό, τα συστήματα που έχουν ενισχυθεί με τη χρήση λογισμικού Τεχνητής Νοημοσύνης μπορούν να επιταχύνουν τον ρυθμό των αποφάσεων στο πεδίο της μάχης σε τέτοιο βαθμό ώστε να δημιουργούν εντελώς νέους κινδύνους όσον αφορά τυχαίων χτυπημάτων ή αποφάσεων που λαμβάνονται μέσω παραπλανητικών ή εσκεμμένα ψευδών ειδοποιήσεων για εισερχόμενες επιθέσεις.
«Ένα βασικό πρόβλημα με την Τεχνητή Νοημοσύνη στον στρατό και στην εθνική ασφάλεια είναι το πώς αμύνεται κανείς έναντι επιθέσεων που είναι πιο γρήγορες από τη λήψη αποφάσεων από τον άνθρωπο, και νομίζω ότι αυτό το ζήτημα δεν έχει επιλυθεί», ανέφερε ο Schmidt. «Με άλλα λόγια, ο πύραυλος εισέρχεται τόσο γρήγορα που πρέπει να υπάρξει αυτόματη απάντηση. Τι θα συμβεί αν πρόκειται για ένα ψευδές σήμα;».
Ο Ψυχρός Πόλεμος ήταν γεμάτος ιστορίες ψευδών προειδοποιήσεων -κάποτε επειδή μια εκπαιδευτική ταινία, που προοριζόταν να χρησιμοποιηθεί για την εξάσκηση της πυρηνικής απόκρισης, τοποθετήθηκε κατά κάποιο τρόπο σε λάθος σύστημα και σήμανε συναγερμό για μια μαζική επερχόμενη σοβιετική επίθεση (η καλή κρίση οδήγησε όλους να μην προχωρήσουν σε ενέργειες). Ο Paul Scharre, του Κέντρου για μια Νέα Αμερικανική Ασφάλεια, σημείωσε στο βιβλίο του «Army of None» το 2018 ότι υπήρξαν «τουλάχιστον 13 πυρηνικά επεισόδια παρ’ ολίγον χρήσης από το 1962 έως το 2002», κάτι που «προσδίδει αξιοπιστία στην άποψη ότι τα σχεδόν ατυχήματα είναι φυσιολογικά, αν και τρομακτικά στην περίπτωση των πυρηνικών όπλων».
Για αυτόν τον λόγο, όταν οι εντάσεις μεταξύ των υπερδυνάμεων ήταν πολύ χαμηλότερες από ό,τι είναι σήμερα, μια σειρά προέδρων προσπάθησαν να διαπραγματευτούν δίνοντας περισσότερο χρόνο στη λήψη πυρηνικών αποφάσεων από όλες τις πλευρές, έτσι ώστε κανείς να μην βιαστεί να πάει σε σύγκρουση. Αλλά η γενετική Τεχνητή Νοημοσύνη απειλεί να ωθήσει τις χώρες προς την άλλη κατεύθυνση, προς την ταχύτερη λήψη αποφάσεων.
Τα καλά νέα είναι ότι οι μεγάλες δυνάμεις είναι πιθανό να είναι πιο προσεκτικές -επειδή ξέρουν πώς θα ήταν η απάντηση από έναν αντίπαλο. Αλλά μέχρι στιγμής δεν υπάρχουν συμφωνημένοι κανόνες.
Η Anja Manuel, πρώην αξιωματούχος του Στέιτ Ντιπάρτμεντ και τώρα διευθύντρια στην ομάδα συμβούλων Rice, Hadley, Gates and Manuel, έγραψε πρόσφατα ότι ακόμη και αν η Κίνα και η Ρωσία δεν είναι έτοιμες για συνομιλίες για τον έλεγχο των όπλων σχετικά με την Τεχνητή Νοημοσύνη, οι συναντήσεις για το θέμα θα οδηγούσαν σε συζητήσεις για το ποιες χρήσεις της Τεχνητής Νοημοσύνης θα μπορούσε να θεωρηθούν «πέρα από τα άκρα».
«Πάλεψα πολύ σκληρά για να υπάρξει μια πολιτική σύμφωνα με την οποία αν διαθέτει κάποιος όπλα που λειτουργούν αυτόνομα απαιτείται τρόπος να απενεργοποιήσης τους», είπε ο Danny Hillis, ένας επιστήμονας υπολογιστών που ήταν πρωτοπόρος στον τομέα υπολογιστών με λογισμικά τεχνητής νοημοσύνης. Ο Hillis, ο οποίος υπηρέτησε επίσης στο Defense Innovation Board, είπε ότι οι αξιωματούχοι του Πενταγώνου είχαν πάντα την άποψη ότι «εάν μπορούμε να τα απενεργοποιήσουμε, ο εχθρός μπορεί επίσης να τα απενεργοποιήσει».
Ωστόσο, ακόμα μεγαλύτεροι κίνδυνοι μπορεί να προέρθουν από μεμονωμένους παράγοντες, όπως τρομοκράτες, ομάδες χάκερ ή μικρότερα έθνη με προηγμένες δεξιότητες στον κυβερνοχώρο -όπως η Βόρεια Κορέα- που μαθαίνουν το πώς να κλωνοποιούν μια μικρότερη, λιγότερο περιορισμένη έκδοση του ChatGPT. Και μπορεί να διαπιστώσουν ότι η γενετική Τεχνητή Νοημοσύνη είναι τέλεια για την επιτάχυνση των επιθέσεων στον κυβερνοχώρο και τη στόχευση στην παραπληροφόρηση.
Ο Tom Burt, ο οποίος ηγείται των επιχειρήσεων εμπιστοσύνης και ασφάλειας στη Microsoft, η οποία επισπεύδει τη χρήση της νέας τεχνολογίας για την ανανέωση των μηχανών αναζήτησής της, δήλωσε σε πρόσφατο φόρουμ στο Πανεπιστήμιο George Washington ότι πιστεύει πως τα συστήματα με Τεχνητή Νοημοσύνη μπορεί να βοηθήσουν περισσότερο τους αμυνόμενους να εντοπίσουν την ανώμαλη συμπεριφορά πιο γρήγορα από ό,τι θα βοηθήσουν τους επιτιθέμενους. Άλλοι ειδικοί διαφωνούν. Ωστόσο, είπε ότι φοβάται πως η Τεχνητή Νοημοσύνη θα μπορούσε να «υπερφορτίσει» τη διάδοση στοχευμένης παραπληροφόρησης.
Όλα αυτά προμηνύουν μια νέα εποχή ελέγχου των όπλων.
Ορισμένοι ειδικοί λένε ότι δεδομένου ότι θα ήταν αδύνατο να σταματήσει η εξάπλωση του ChatGPT και παρόμοιου λογισμικού, η καλύτερη ελπίδα είναι να περιοριστούν τα εξειδικευμένα τσιπ και η άλλη υπολογιστική ισχύς που απαιτείται για την προώθηση της τεχνολογίας. Αυτό θα είναι αναμφίβολα ένα από τα πολλά διαφορετικά σχέδια ελέγχου των όπλων που θα υποβληθούν τα επόμενα χρόνια, σε μια εποχή που οι μεγάλες πυρηνικές δυνάμεις, τουλάχιστον, δεν δείχνουν ενδιαφέρον να διαπραγματευτούν για παλιά όπλα, πολύ λιγότερο για νέα.

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου