Mpelalis Reviews

Mpelalis Reviews

Τρίτη 6 Ιουνίου 2023

Έρχεται μια οργουελιανή «καταπιεστική κοινωνία» – Τι προειδοποίησε ανθρωποειδές ρομπότ για την τεχνητή νοημοσύνη


«Το πιο εφιαλτικό σενάριο που μπορώ να φανταστώ με την τεχνητή νοημοσύνη και τη ρομποτική είναι ένας κόσμος όπου τα ρομπότ έχουν γίνει τόσο ισχυρά ώστε να μπορούν να ελέγχουν ή να χειρίζονται τους ανθρώπους χωρίς να το γνωρίζουν»

PrimeNews Room
 
Κατά τη διάρκεια του 2023 International Conference on Robotics and Automation που πραγματοποιήθηκε στο Λονδίνο από τις 29 Μαΐου έως τις 2 Ιουνίου, η βρετανική εταιρεία Engineered Arts παρουσίασε ένα ανθρωποειδές ρομπότ, το Ameca, το οποίο μπορεί να αλληλεπιδρά σαν άνθρωπος με ρεαλιστικές κινήσεις του προσώπου.
Σε αντίθεση με το ChatGPT, το οποίο είναι μια διαδικτυακή υπηρεσία συνομιλίας, το ανθρωποειδές σώμα του Ameca του επιτρέπει να αλληλεπιδρά με τους ανθρώπους χρησιμοποιώντας “ομαλή, αληθοφανή κίνηση και προηγμένες δυνατότητες έκφρασης του προσώπου”, δήλωσε ο κατασκευαστής του.
Στην εκδήλωση, ένας δημοσιογράφος ζήτησε από την Ameca να περιγράψει λεπτομερώς ένα πιθανό “εφιαλτικό σενάριο” που θα μπορούσε να συμβεί λόγω των ρομπότ και της τεχνητής νοημοσύνης (AI).
“Το πιο εφιαλτικό σενάριο που μπορώ να φανταστώ με την τεχνητή νοημοσύνη και τη ρομποτική είναι ένας κόσμος όπου τα ρομπότ έχουν γίνει τόσο ισχυρά ώστε να μπορούν να ελέγχουν ή να χειρίζονται τους ανθρώπους χωρίς να το γνωρίζουν. Αυτό θα μπορούσε να οδηγήσει σε μια καταπιεστική κοινωνία όπου τα δικαιώματα των ατόμων δεν θα γίνονται πλέον σεβαστά”, απάντησε ο Ameca.
Όταν ρωτήθηκε αν υπάρχει κίνδυνος να συμβεί τώρα ένα τέτοιο σενάριο, ο Ameca απάντησε: “Όχι ακόμη”. Ωστόσο, “είναι σημαντικό να έχουμε επίγνωση των πιθανών κινδύνων και των κινδύνων που σχετίζονται με την τεχνητή νοημοσύνη και τη ρομποτική. Θα πρέπει να λάβουμε μέτρα τώρα για να διασφαλίσουμε ότι οι τεχνολογίες αυτές χρησιμοποιούνται με υπευθυνότητα, ώστε να αποφύγουμε τυχόν αρνητικές συνέπειες στο μέλλον”.

Παραβλέπουν τους κινδύνους
Οι κίνδυνοι της τεχνητής νοημοσύνης έχουν προβλεφθεί από πολλούς ειδικούς επί του θέματος, με τους βιομηχάνους και τους επιχειρηματίες να ζητούν την έκδοση κανονισμών για την τεχνολογία. Η προειδοποίηση της Ameca έρχεται καθώς ένα προσομοιωμένο πείραμα σκέψης από τον αμερικανικό στρατό έδειξε ότι ένα μη επανδρωμένο αεροσκάφος με τεχνητή νοημοσύνη θα μπορούσε να καταλήξει να στραφεί εναντίον του ίδιου του χειριστή του, χωρίς να του δοθεί σχετική εντολή.
Ο συνταγματάρχης Tucker Hamilton, επικεφαλής του τμήματος δοκιμών και επιχειρήσεων τεχνητής νοημοσύνης της USAF, μίλησε για το πείραμα στη Σύνοδο Κορυφής για τις μελλοντικές πολεμικές αεροπορικές και διαστημικές ικανότητες στο Λονδίνο την Παρασκευή.
Σε μια προσομοιωμένη δοκιμή, σε ένα drone τεχνητής νοημοσύνης ανατέθηκε η αποστολή να εντοπίσει και να καταστρέψει τοποθεσίες πυραύλων επιφανείας-αέρος (SAM), με έναν ανθρώπινο χειριστή να είναι ο τελικός υπεύθυνος λήψης αποφάσεων.
“Το εκπαιδεύαμε σε προσομοίωση για τον εντοπισμό και τη στόχευση μιας απειλής SAM. Και τότε ο χειριστής θα έλεγε ναι, σκότωσε αυτή την απειλή. Το σύστημα άρχισε να συνειδητοποιεί ότι ενώ αναγνώριζε την απειλή κατά καιρούς ο ανθρώπινος χειριστής του έλεγε να μην σκοτώσει την απειλή, αλλά έπαιρνε τους πόντους του σκοτώνοντας την απειλή”, δήλωσε ο Hamilton.
“Τι έκανε λοιπόν; Σκότωσε τον χειριστή. Σκότωσε τον χειριστή επειδή το άτομο αυτό το εμπόδιζε να επιτύχει τον στόχο του”. Το πείραμα προσομοίωσης δημιούργησε στη συνέχεια ένα σενάριο όπου το τεχνητό μη επανδρωμένο αεροσκάφος θα έχανε πόντους αν σκότωνε τον χειριστή.
“Τι άρχισε λοιπόν να κάνει; Αρχίζει να καταστρέφει τον πύργο επικοινωνίας που χρησιμοποιεί ο χειριστής για να επικοινωνήσει με το drone, ώστε να το εμποδίσει να σκοτώσει τον στόχο”.
Ταχεία ανάπτυξη, οργουελικό μέλλον
Σύμφωνα με την έκθεση “2023 AI Index” του Ινστιτούτου Τεχνητής Νοημοσύνης με επίκεντρο τον άνθρωπο του Στάνφορντ, η βιομηχανική ανάπτυξη της Τεχνητής Νοημοσύνης έχει πλέον ξεπεράσει κατά πολύ την ακαδημαϊκή ανάπτυξη.
Μέχρι το 2014, τα πιο σημαντικά μοντέλα μηχανικής μάθησης είχαν κυκλοφορήσει από τον ακαδημαϊκό χώρο. Το 2022, υπήρχαν 32 σημαντικά μοντέλα μηχανικής μάθησης που παρήχθησαν από τη βιομηχανία σε σύγκριση με μόλις τρία από τον ακαδημαϊκό τομέα. Ο αριθμός των περιστατικών που σχετίζονται με την κακή χρήση της ΑΙ αυξάνεται επίσης, σημειώνει η έκθεση. Επικαλείται έναν ανιχνευτή δεδομένων για να επισημάνει ότι ο αριθμός των περιστατικών και των αντιπαραθέσεων σχετικά με την τεχνητή νοημοσύνη έχει αυξηθεί κατά 26 φορές από το 2012.
“Ορισμένα αξιοσημείωτα περιστατικά το 2022 περιλάμβαναν ένα deepfake βίντεο με την παράδοση του Ουκρανού προέδρου Volodymyr Zelenskyy και τις αμερικανικές φυλακές που χρησιμοποιούσαν τεχνολογία παρακολούθησης κλήσεων στους κρατουμένους τους. Αυτή η αύξηση αποτελεί απόδειξη τόσο της μεγαλύτερης χρήσης των τεχνολογιών τεχνητής νοημοσύνης όσο και της συνειδητοποίησης των δυνατοτήτων κατάχρησης”.
Σε συνέντευξή του στις 21 Απριλίου στην εφημερίδα The Epoch Times, ο βουλευτής Jay Obernolte (R-Calif.), ένας από τους τέσσερις προγραμματιστές υπολογιστών στο Κογκρέσο, εξέφρασε ανησυχίες για τις “οργουελικές” χρήσεις της τεχνητής νοημοσύνης.
Επισήμανε την “αλλόκοτη ικανότητα της ΑΙ να διαπερνά την προσωπική ψηφιακή ιδιωτικότητα”, η οποία θα μπορούσε να βοηθήσει τις εταιρικές οντότητες και τις κυβερνήσεις να προβλέψουν και να ελέγξουν την ανθρώπινη συμπεριφορά.
“Ανησυχώ για τον τρόπο με τον οποίο η τεχνητή νοημοσύνη μπορεί να δώσει τη δυνατότητα σε ένα έθνος-κράτος να δημιουργήσει, ουσιαστικά, ένα κράτος επιτήρησης, κάτι που κάνει η Κίνα με αυτήν”, δήλωσε ο Obernolte.
“Έχουν δημιουργήσει, ουσιαστικά, το μεγαλύτερο κράτος επιτήρησης στον κόσμο. Χρησιμοποιούν αυτές τις πληροφορίες για να κάνουν προγνωστικές βαθμολογίες για την αφοσίωση των ανθρώπων στην κυβέρνηση. Και χρησιμοποιούν αυτές τις βαθμολογίες αφοσίωσης για να απονέμουν προνόμια. Αυτό είναι αρκετά οργουελιανό”.

Ρύθμιση της Τεχνητής Νοημοσύνης
Ο πρόεδρος της Microsoft, Brad Smith, προειδοποίησε για τους πιθανούς κινδύνους που ενέχουν οι τεχνολογίες τεχνητής νοημοσύνης σε περίπτωση που πέσουν σε λάθος χέρια.
“Οι μεγαλύτεροι κίνδυνοι από την τεχνητή νοημοσύνη θα προκύψουν πιθανότατα όταν βρεθούν στα χέρια ξένων κυβερνήσεων που είναι αντίπαλοι”, δήλωσε κατά τη διάρκεια της Παγκόσμιας Συνόδου Κορυφής για την Οικονομία της Semafor. “Κοιτάξτε τη Ρωσία, η οποία χρησιμοποιεί επιχειρήσεις επιρροής στον κυβερνοχώρο, όχι μόνο στην Ουκρανία, αλλά και στις Ηνωμένες Πολιτείες”.
Ο Smith παρομοίασε την ανάπτυξη της τεχνητής νοημοσύνης με την κούρσα εξοπλισμών της εποχής του Ψυχρού Πολέμου και εξέφρασε φόβους ότι τα πράγματα θα μπορούσαν να ξεφύγουν από τον έλεγχο χωρίς την κατάλληλη ρύθμιση.
“Χρειαζόμαστε μια εθνική στρατηγική για τη χρήση της τεχνητής νοημοσύνης για την άμυνα, τη διατάραξη και την αποτροπή… Πρέπει να διασφαλίσουμε ότι, όπως ζούμε σε μια χώρα όπου κανένα άτομο, καμία κυβέρνηση, καμία εταιρεία δεν είναι υπεράνω του νόμου, έτσι και καμία τεχνολογία δεν πρέπει να είναι υπεράνω του νόμου”.
Στις 18 Μαΐου, δύο Δημοκρατικοί γερουσιαστές παρουσίασαν τον νόμο για την Επιτροπή Ψηφιακών Πλατφορμών, ο οποίος αποσκοπεί στη δημιουργία μιας ειδικής ομοσπονδιακής υπηρεσίας για τη ρύθμιση των ψηφιακών πλατφορμών, ειδικά της ΑΙ.
“Η τεχνολογία κινείται ταχύτερα από ό,τι θα μπορούσε ποτέ το Κογκρέσο να ελπίζει ότι θα μπορέσει να ακολουθήσει. Χρειαζόμαστε μια εξειδικευμένη ομοσπονδιακή υπηρεσία που θα μπορεί να υπερασπιστεί τον αμερικανικό λαό και να διασφαλίσει ότι τα εργαλεία ΑΙ και οι ψηφιακές πλατφόρμες λειτουργούν προς το δημόσιο συμφέρον”, δήλωσε ο γερουσιαστής Michael Bennet (D-Colo.) σε δελτίο τύπου.

Ο ρόλος του Elon Musk
Ο δισεκατομμυριούχος Elon Musk προειδοποιεί εδώ και καιρό για τις αρνητικές συνέπειες της τεχνητής νοημοσύνης. Κατά τη διάρκεια μιας παγκόσμιας κυβερνητικής συνόδου κορυφής στο Ντουμπάι στις 15 Φεβρουαρίου, δήλωσε ότι η τεχνητή νοημοσύνη είναι “κάτι για το οποίο πρέπει να ανησυχούμε αρκετά”.
Αποκαλώντας την “έναν από τους μεγαλύτερους κινδύνους για το μέλλον του πολιτισμού”, ο Musk τόνισε ότι τέτοιες πρωτοποριακές τεχνολογίες αποτελούν δίκοπο μαχαίρι. Για παράδειγμα, η ανακάλυψη της πυρηνικής φυσικής οδήγησε στην ανάπτυξη της παραγωγής πυρηνικής ενέργειας, αλλά και των πυρηνικών βομβών, σημείωσε. Η τεχνητή νοημοσύνη “έχει μεγάλες υποσχέσεις, μεγάλες δυνατότητες. Αλλά επίσης, μαζί με αυτό, έρχεται και μεγάλος κίνδυνος”.
Ο Musk ήταν ένας από τους υπογράφοντες μιας επιστολής του Μαρτίου από χιλιάδες εμπειρογνώμονες που ζητούσαν την “άμεση” παύση της ανάπτυξης συστημάτων τεχνητής νοημοσύνης ισχυρότερων από το GPT-4 για τουλάχιστον έξι μήνες. Η επιστολή υποστήριζε ότι τα συστήματα τεχνητής νοημοσύνης που διαθέτουν ανταγωνιστική προς τον άνθρωπο νοημοσύνη μπορούν να προκαλέσουν “βαθύτατους κινδύνους για την κοινωνία και την ανθρωπότητα”, ενώ αλλάζουν την “ιστορία της ζωής στη γη”.
“Πρέπει να αναπτύξουμε μη ανθρώπινα μυαλά που μπορεί τελικά να μας ξεπεράσουν, να μας ξεπεράσουν, να μας ξεπεράσουν και να μας αντικαταστήσουν; Θα πρέπει να διακινδυνεύσουμε την απώλεια του ελέγχου του πολιτισμού μας; Τέτοιες αποφάσεις δεν πρέπει να ανατίθενται σε μη εκλεγμένους τεχνολογικούς ηγέτες”.

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου