Όλα αυτά που ζούμε, δεν είναι «τίποτα» σε σύγκριση με αυτό που θα μπορούσε να περιμένει την κοινωνία τα επόμενα χρόνια, ανέφερε ο Ισραηλινός ιστορικός...
PrimeNews Room
Ο διεθνιστής συνομιλητής του πρωθυπουργού, Κυριάκου Μητσοτάκη και προφήτης του Παγκοσμίου Οικονομικού Φόρουμ, Yuval Noah Harari, αποκαλύπτει πως η τεχνητή νοημοσύνη, η οποία θα έχει προσωπικότητα, θα παίρνει αποφάσεις μόνη της!!!
Όπως ανέφερε:
«Η Τεχνητή Νοημοσύνη διαφέρει από κάθε προηγούμενη τεχνολογία στην ιστορία, από τα μαχαίρια, από τις ατομικές βόμβες, από τα αυτοκίνητα, από τα πάντα.
Γιατί διαφέρει; Είναι η 1η τεχνολογία στην ιστορία που μπορεί να κάνει επιλογές από μόνη της… Τα μαχαίρια δε μπορούν να επιλέξουν τι κάνουμε μ’ αυτά. Αλλά η τεχνητή νοημοσύνη μπορεί…
Όπως έχουμε τώρα για παράδειγμα στρατούς σ’ ολόκληρο τον πλανήτη που αναπτύσσουν αυτόνομα οπλικά συστήματα, κάτι που ευρέως αποκαλούνται ρομπότ-δολοφόνοι.
Πρόκειται για ένα όπλο. Είναι το 1ο όπλο στην ιστορία που μπορεί να αποφασίσει από μόνο του αν θα σκοτώσει κάποιον, αν θα επιτεθεί σε κάποιον. Η τεχνολογία θα κάνει την επιλογή»
Παράλληλα, σε συνέντευξη που έδωσε στο Fox News, ο Ισραηλινός ιστορικός και συγγραφέας του βιβλίου «Sapiens» ισχυρίστηκε ότι δεν υπάρχει διακόπτης on/off για την τεχνητή νοημοσύνη (AI) και ζήτησε την εφαρμογή ελέγχων ασφαλείας και προστατευτικών δικλείδων, διαφορετικά υπάρχει κίνδυνος κοινωνικής κατάρρευσης.
Κατά τη διάρκεια μιας συνέντευξης τον Μάρτιο στο ABC News, ο Διευθύνων Σύμβουλος της OpenAI, Sam Altman, ρωτήθηκε εάν το ChatGPT είχε «διακόπτη εξόντωσης» σε περίπτωση που η τεχνητή νοημοσύνη του γινόταν επικίνδυνη . Ο Άλτμαν απάντησε με ένα γρήγορο «ναι».
«Οποιοσδήποτε μηχανικός μπορεί να απενεργοποιήσει οποιαδήποτε τεχνητή νοημοσύνη. Ή θα αναπτύξει μια νέα βελτιωμένη έκδοση του μοντέλου», πρόσθεσε.
Όμως ο Χαράρι διαφωνεί.
«Όταν παράγεις αυτά τα εργαλεία, εφόσον δεν τα έχεις κυκλοφορήσει στη δημόσια σφαίρα, μπορείς να νομίζεις ότι έχει φτιάξει όσους διακόπτες κινδύνου θέλεις», είπε ο Χαράρι. “Αλλά μόλις τα απελευθερώσεις στο κοινό, οι άνθρωποι αρχίζουν να εξαρτώνται από αυτά για τα προς το ζην, για τις κοινωνικές τους σχέσεις, για την πολιτική τους. Είναι πολύ αργά. Δεν μπορείς να τραβήξεις το διακόπτη γιατί η αλλαγή θα προκαλέσει οικονομική κατάρρευση».
Σύμφωνα με τον Χαράρι, οι πρόσφατες τεχνολογικές επαναστάσεις έχουν επιδεινώσει τις κοινωνικές ανισότητες και οδήγησαν σε πολιτική αναταραχή. Ωστόσο, όπως είπε, όλα αυτά δεν είναι «τίποτα» σε σύγκριση με αυτό που θα μπορούσε να περιμένει την κοινωνία τα επόμενα χρόνια.
«Αν δεν το φροντίσουμε άμεσα, τότε κάποιοι άνθρωποι θα γίνουν εξαιρετικά πλούσιοι και ισχυροί επειδή ελέγχουν τα νέα εργαλεία και άλλοι άνθρωποι θα μπορούσαν να γίνουν μέρος μιας νέας «άχρηστης τάξης». Χρησιμοποιώ αυτή την πολύ σκληρή γλώσσα και ξέρω ότι οι άνθρωποι αισθάνονται ότι είναι άσχημο να μιλάς έτσι», είπε ο Χαράρι. “Προφανώς, οι άνθρωποι δεν είναι ποτέ άχρηστοι από την άποψη της οικογένειας ή των φίλων ή της κοινότητάς τους, αλλά από την άποψη του οικονομικού συστήματος, θα μπορούσαν να γίνουν, δεν θα τους χρειαζόμαστε. Δεν έχουν πια δεξιότητες για να είναι χρήσιμοι».
Ο Χαράρι περιέγραψε πως βρισκόμαστε μπροστά σε έναν “τρομερό κίνδυνο” και υπογράμμισε την ανάγκη προστασίας των ανθρώπων πριν να είναι πολύ αργά. Οι ειδικοί έχουν λάβει πολλές και διαφορετικές θέσεις σχετικά με την ταχεία ανάπτυξη της τεχνητής νοημοσύνης. Κάποιοι έχουν υποστηρίξει η τεχνολογία πρέπει να συνεχίσει να εξελίσσεται και να προωθείται στους καταναλωτές στις Ηνωμένες Πολιτείες σε μια προσπάθεια να παραμείνουν ανταγωνιστικές με άλλες κυβερνήσεις, όπως το Κινεζικό Κομμουνιστικό Κόμμα.
«Η τεχνητή νοημοσύνη αποτελεί άμεση απειλή για την ανθρωπότητα, αλλά θα γίνει ακόμη μεγαλύτερη απειλή για την ανθρωπότητα εάν η Κίνα την κατακτήσει πριν το κάνουμε εμείς», είπε πρόσφατα ο ειδικός στα θέματα της Κίνας, Γκόρντον Τσανγκ, στο Fox News. «Το βλέπουμε αυτό, για παράδειγμα, στη γονιδιακή επεξεργασία των ανθρώπων».
Ωστόσο, η Κίνα έχει θεσπίσει νέους κανονισμούς για την τεχνολογία βαθιάς σύνθεσης που είναι διαθέσιμη σε πλατφόρμες τεχνητής νοημοσύνης που δεν έχουν ακόμη καθιερωθεί στις ΗΠΑ. Τον Ιανουάριο, η κινεζική διοίκηση κυβερνοχώρου έθεσε σημαντικούς περιορισμούς στο περιεχόμενο που δημιουργείται από τεχνητή νοημοσύνη, απαιτώντας αυτές οι μορφές μέσων να φέρουν μοναδικά αναγνωριστικά, όπως π.χ. υδατογραφήματα.
Ο Elon Musk, ο Steve Wozniak, ο Harari και άλλοι τεχνολογικοί ηγέτες υπέγραψαν μια επιστολή τον Μάρτιο ζητώντας από τους προγραμματιστές της AI να «παύσουν αμέσως για τουλάχιστον έξι μήνες την εκπαίδευση συστημάτων AI που είναι πιο ισχυρά από το GPT-4».
«Αυτό που θα κάνει τη Δύση να χάσει από την Κίνα είναι αν συνεχίσουμε να απελευθερώνουμε αυτού του είδους τα ισχυρά εργαλεία στη δημόσια σφαίρα μας χωρίς κανένα μέτρο ασφαλείας, επειδή καταστρέφουν τα θεμέλια της κοινωνίας μας, καταστρέφουν τα θεμέλια της δημοκρατίας», είπε ο Χαράρι στο Fox News Digital. .
Ο Χαράρι είπε επίσης ότι δεν θέλει να σταματήσει την ανάπτυξη όλης της τεχνητής νοημοσύνης, αλλά ζητά να σταματήσει η κυκλοφορία εξαιρετικά ισχυρών εργαλείων τεχνητής νοημοσύνης στη δημόσια σφαίρα.
Συνέκρινε τη γνώμη του για την τεχνητή νοημοσύνη με την ανάπτυξη ενός νέου φαρμάκου, όπου ο νόμος και τα ιατρικά πρότυπα υποχρεώνουν μια εταιρεία να υποβληθεί σε αυστηρό έλεγχο ασφαλείας για να προσδιορίσει την ασφάλεια του προϊόντος βραχυπρόθεσμα και μακροπρόθεσμα.
«Τι θα λέγατε αν είχατε εργαστήρια βιοτεχνολογίας που κατασκεύαζαν νέους ιούς και απλώς τους απελευθέρωναν δημόσια, απλώς για να εντυπωσιάσουν τους μετόχους τους με τις βελτιωμένες δυνατότητές τους και να ανεβάσουν την αξία των μετοχών τους», είπε ο Χαράρι. “Θα λέγαμε ότι αυτό είναι απολύτως τρελό. Αυτοί οι άνθρωποι πρέπει να μπουν στη φυλακή”, είπε.
Ο Harari πιστεύει ότι η τεχνητή νοημοσύνη έχει τη δυνατότητα να είναι «πολύ πιο ισχυρή» από οποιονδήποτε ιό και εξέφρασε την ανησυχία ότι οι ερευνητές αναπτύσσουν αυτά τα εξαιρετικά ισχυρά εργαλεία και τα απελευθερώνουν γρήγορα χωρίς ελέγχους ασφαλείας.
“Στο πιο βασικό επίπεδο, η τεχνητή νοημοσύνη δεν είναι όπως κανένα άλλο εργαλείο στην ανθρώπινη ιστορία. Όλα τα προηγούμενα εργαλεία που εφεύραμε μας ενίσχυσαν επειδή οι αποφάσεις για το πώς να χρησιμοποιήσουμε τα εργαλεία παρέμεναν πάντα σε ανθρώπινα χέρια”, πρόσθεσε ο Χαράρι. “Αν εφεύρεις ένα μαχαίρι, αποφασίζεις αν θα το χρησιμοποιήσεις για να σκοτώσεις κάποιον ή για να σώσεις τη ζωή του στο χειρουργείο ή να κόψεις σαλάτα. Το μαχαίρι δεν αποφασίζει.”
Συνέκρινε επίσης την τεχνητή νοημοσύνη με το ραδιόφωνο ή την ατομική βόμβα. Το ραδιόφωνο δεν αποφασίζει τι θα μεταδώσει και ένα πυρηνικό όπλο δεν καθορίζει ποιον θα βομβαρδίσει. Υπάρχει πάντα ένα ανθρώπινο στοιχείο, ενώ η τεχνητή νοημοσύνη είναι το «πρώτο εργαλείο στην ανθρώπινη ιστορία» που μπορεί να πάρει αποφάσεις από μόνο του, για τη χρήση του και για τη ζωή την ίδια, είπε ο Χαράρι.
Σε ένα πρόσφατο άρθρο γνώμης των New York Times, ο Harari περιέγραψε τα μέσα κοινωνικής δικτύωσης ως την «πρώτη επαφή» μεταξύ της τεχνητής νοημοσύνης και της ανθρωπότητας, μια προσέγγιση που όπως ισχυρίστηκε, η ανθρωπότητα έχασε.
Όταν του ζητήθηκε να συζητήσει περαιτέρω αυτή τη θέση, ο Harari σημείωσε ότι τα ανθρώπινα όντα δημιουργούν περιεχόμενο μέσων κοινωνικής δικτύωσης, ενώ η τεχνητή νοημοσύνη επιμελείται το περιεχόμενο και ο αλγόριθμος αποφασίζει τι θα δείξει στον χρήστη. Ο Harari είπε ότι αυτή η πρωτόγονη τεχνητή νοημοσύνη έχει «αποσταθεροποιήσει πλήρως την κοινωνία μας» απλώς και μόνο με το να του ανατεθεί μια απλή εργασία για τη μεγιστοποίηση της αφοσίωσης των χρηστών.
«Η τεχνητή νοημοσύνη ανακάλυψε ότι ο καλύτερος τρόπος για να τραβήξεις την προσοχή των ανθρώπων και να τους κρατήσεις στην πλατφόρμα είναι να πατήσεις τα συναισθηματικά κουμπιά στον εγκέφαλό τους για να προκαλέσει θυμό, μίσος και φόβο», είπε ο Χαράρι. «Τότε έχεις αυτή την επιδημία θυμού, φόβου και μίσους στην κοινωνία που αποσταθεροποιεί τη δημοκρατία μας».
Η νέα γενιά AI, όπως το ChatGPT και το GPT 4, δεν επιμελούνται μόνο ανθρώπινο περιεχόμενο. Μπορούν να δημιουργήσουν μόνα τους το περιεχόμενο. Ο Χαράρι είπε ότι φαντάζεται να έρχεται μια κοινωνία όπου οι περισσότερες ιστορίες, τραγούδια και εικόνες δημιουργούνται από μια μη ανθρώπινη νοημοσύνη που καταλαβαίνει πώς να χειραγωγεί τα συναισθήματά μας.
Αλλά ισχυρίζεται επίσης ότι δεν είναι όλα αρνητικά. Η τεχνητή νοημοσύνη μπορεί να μας βοηθήσει να έχουμε καλύτερη υγειονομική περίθαλψη, να θεραπεύσουμε τον καρκίνο και να βοηθήσει την ανθρωπότητα να λύσει μια ποικιλία προβλημάτων. Για να το επιτύχει αυτό χωρίς αρνητικές συνέπειες, ο Harari χρησιμοποίησε διάφορα μέτρα ασφαλείας.
Ένας από τους τρόπους καταπολέμησης της παραπληροφόρησης, πρότεινε ο Χαράρι, είναι να ενισχυθεί η ανάγκη για αξιόπιστους θεσμούς. Στον σύγχρονο κόσμο του σήμερα, διάφορα άτομα και εταιρείες μπορούν να γράψουν οτιδήποτε, ανεξάρτητα από το αν βασίζεται στην αντικειμενική πραγματικότητα. Μπορούν επίσης να παράγουν deepfakes, ψεύτικα βίντεο πραγματικών ανθρώπων.
“Μοιάζει ακριβώς με τον Τραμπ ή τον Μπάιντεν. Ακούγονται ακριβώς όπως ο Τραμπ ή ο Μπάιντεν. Αλλά δεν μπορείς να το εμπιστευτείς. Γιατί τώρα ξέρεις. Λοιπόν, μπορούν να δημιουργήσουν οτιδήποτε. Λοιπόν, τι μπορείς να εμπιστευτείς; Εμπιστεύεσαι τον εκδότη, εμπιστεύεσαι τον θεσμό», είπε ο Χαράρι.
Πρότεινε επίσης περαιτέρω ρυθμίσεις ή νόμους για το απόρρητο των δεδομένων. Για παράδειγμα, όταν ένα άτομο πηγαίνει στον γιατρό του και του λέει κάτι πολύ απόρρητο, ο γιατρός δεν επιτρέπεται να πάρει αυτές τις πληροφορίες και να τις πουλήσει έναντι χρημάτων σε τρίτο μέρος για να τις χρησιμοποιήσει εναντίον του ασθενούς ή να τις χειραγωγήσει χωρίς συγκατάθεση.
Η απόκτηση δεδομένων και οι πωλήσεις είναι από τους πιο σημαντικούς τρόπους με τους οποίους οι εταιρείες της Big Tech παράγουν κέρδη. Χρησιμοποιούν επίσης αυτά τα δεδομένα για την επιμέλεια περιεχομένου και την πώληση προϊόντων στους καταναλωτές. Ο Χαράρι είπε ότι παρόμοιοι κανόνες στον ιατρικό τομέα θα πρέπει να ισχύουν και στον τομέα της τεχνολογίας.
“Δεν μπορούμε να εμπιστευτούμε τους ανθρώπους που αναπτύσσουν την τεχνολογία για να επιβλέπουν τον εαυτό τους. Δεν εκπροσωπούν κανέναν”, είπε ο Χαράρι. “Δεν τους ψηφίσαμε ποτέ. Δεν μας εκπροσωπούν. Τι τους δίνει τη δύναμη να λαμβάνουν ίσως τις πιο σημαντικές αποφάσεις στην ανθρώπινη ιστορία;”
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου