Τρόμος από τον αγώνα δρόμου για όλο και περισσότερα ρομπότ τεχνητής νοημοσύνης – Πλησιάζει το μέλλον της δυστοπίας

Η πλήρης δέσμευση των μεγάλων εταιρειών τεχνολογίας στην ανάπτυξη τεχνητής νοημοσύνης (AI), ακόμη και επιτρέποντας στην τεχνητή νοημοσύνη να «βλέπει» και να «μιλάει» στον ανθρώπινο κόσμο, έχει οδηγήσει σε μια αυξανόμενη ανησυχία για τον έλεγχο των ανθρώπων από την τεχνολογία.
Ο Ilya Sutskever, ο συνιδρυτής του OpenAI, έκανε μια σημαντική ανακοίνωση στις 15 Μαΐου, δηλώνοντας επίσημα ότι αποχωρεί από την εταιρεία όπου εργαζόταν για σχεδόν δέκα χρόνια.
«Είμαι βέβαιος ότι το OpenAI θα δημιουργήσει AGI [τεχνητή γενική νοημοσύνη] που είναι ασφαλές και επωφελές υπό την ηγεσία των Sam Altman, Greg Brockman, Mira Murati και τώρα, υπό την εξαιρετική ερευνητική ηγεσία του Jakub Pachocki.
Ήταν τιμή και προνόμιο να συνεργαστούμε και θα μου λείψουν όλοι πολύ», έγραψε σε ανάρτησή του στην πλατφόρμα κοινωνικής δικτύωσης X.
Η είδηση προκάλεσε σοκ στον κλάδο της τεχνολογίας.
Τον Νοέμβριο του 2023, λόγω ζητημάτων ασφάλειας τεχνητής νοημοσύνης, ο κ. Sutskever και άλλα μέλη του διοικητικού συμβουλίου ένωσαν τις δυνάμεις τους για να εκδιώξουν τον Διευθύνοντα Σύμβουλο της OpenAI, Sam Altman, ο οποίος αποβλήθηκε για λίγο από το OpenAI αλλά επέστρεψε και απομάκρυνε τον κ. Sutskever και πολλά μέλη του διοικητικού συμβουλίου, αναδιαρθρώνοντας το διοικητικό συμβούλιο ώστε να είναι πιο ευθυγραμμισμένο με το όραμά του.
«Αυτή η αποχώρηση υπογραμμίζει σοβαρές συγκρούσεις στην ηγεσία του OpenAI σχετικά με την ασφάλεια της τεχνητής νοημοσύνης.
Αν και η επιθυμία των Sutskever και Leike να αναπτύξουν ένα ηθικά ευθυγραμμισμένο AGI είναι αξιέπαινη, μια τέτοια προσπάθεια απαιτεί ουσιαστική ηθική, χρονική, οικονομική και ακόμη και πολιτική υποστήριξη», δήλωσε στους The Epoch Times ο Jin Kiyohara, ένας Ιάπωνας μηχανικός υπολογιστών.

Ο ανταγωνισμός Google και OpenAI εντείνεται

Στις 14 Μαΐου, μία ημέρα πριν ο κ. Sutskever ανακοινώσει την αποχώρησή του, το OpenAI αποκάλυψε ένα μοντέλο τεχνητής νοημοσύνης υψηλότερης απόδοσης βασισμένο στο GPT-4, που ονομάζεται GPT-4o, όπου το “o” σημαίνει “omni”, υποδεικνύοντας τις ολοκληρωμένες δυνατότητές του.
Το μοντέλο GPT-4o μπορεί να ανταποκριθεί σε πραγματικό χρόνο σε μικτές εισόδους ήχου, κειμένου και εικόνων.
Στην εκδήλωση έναρξης, η Chief Technology Officer του OpenAI, Mira Murati, δήλωσε: «Κοιτάμε το μέλλον της αλληλεπίδρασης μεταξύ των ανθρώπων και των μηχανών».
Σε πολλά βίντεο που κυκλοφόρησε από το OpenAI, οι άνθρωποι μπορούν να αλληλεπιδρούν με την τεχνητή νοημοσύνη σε πραγματικό χρόνο μέσω της κάμερας του τηλεφώνου τους.
Το AI μπορεί να παρατηρεί και να παρέχει ανατροφοδότηση για το περιβάλλον, να απαντά σε ερωτήσεις, να εκτελεί μετάφραση σε πραγματικό χρόνο, να λέει αστεία ή ακόμα και να κοροϊδεύει τους χρήστες, με μοτίβα ομιλίας, τόνους και ταχύτητες αντίδρασης που σχεδόν δεν διακρίνονται από ένα πραγματικό άτομο.
Μια μέρα μετά την κυκλοφορία του OpenAI, η Google ξεκίνησε το 2024 I/O Developer Conference.
Σε μια παρουσίαση 110 λεπτών, το “AI” αναφέρθηκε 121 φορές, εστιάζοντας στο πιο πρόσφατο μοντέλο Gemini-1.5, το οποίο ενσωματώνεται σε όλα τα προϊόντα και τις εφαρμογές της Google, συμπεριλαμβανομένης της μηχανής αναζήτησης, του χάρτη Google, του Ask Photos, του Ημερολογίου Google και των smartphone της Google .
Με το Gemini ενσωματωμένο στο άλμπουμ φωτογραφιών cloud, οι χρήστες μπορούν να αναζητήσουν συγκεκριμένες λειτουργίες στις φωτογραφίες απλώς εισάγοντας λέξεις-κλειδιά.
Το AI θα βρει και θα αξιολογήσει σχετικές εικόνες, ενσωματώνοντας ακόμη και μια σειρά σχετικών εικόνων ή απαντήσεων που βασίζονται σε ερωτήσεις σε βάθος, σύμφωνα με τον τεχνολογικό γίγαντα.
Το Google Mail μπορεί επίσης να επιτύχει παρόμοια αποτελέσματα με την τεχνητή νοημοσύνη, ενσωματώνοντας και ενημερώνοντας δεδομένα σε πραγματικό χρόνο κατά τη λήψη νέων email, στοχεύοντας σε έναν πλήρως αυτοματοποιημένο οργανισμό.
Στο μέτωπο της μουσικής, το Music AI Sandbox επιτρέπει γρήγορες τροποποιήσεις στο στυλ, τη μελωδία και τον ρυθμό του τραγουδιού, με τη δυνατότητα να στοχεύσετε συγκεκριμένα μέρη ενός τραγουδιού.
Αυτή η λειτουργικότητα ξεπερνά αυτή του κειμένου σε μουσική AI, Suno.
Το Gemini μπορεί επίσης να λειτουργήσει ως δάσκαλος, με διδακτικές ικανότητες συγκρίσιμες με το GPT-4o.
Οι χρήστες μπορούν να εισάγουν κείμενο και εικόνες, τα οποία το AI οργανώνει σε βασικά σημεία για επεξήγηση και ανάλυση, επιτρέποντας συζητήσεις σε πραγματικό χρόνο.
Αυτή η ενημέρωση τεχνητής νοημοσύνης φέρνει επίσης δυνατότητες παρόμοιες με το AI από κείμενο σε βίντεο του OpenAI, Sora, δημιουργώντας σύντομα βίντεο από απλές περιγραφές κειμένου.
Η ποιότητα και το περιεχόμενο αυτών των βίντεο είναι σταθερά, με λιγότερες ασυνέπειες.
«Η τεχνητή νοημοσύνη ενημερώνεται με άνευ προηγουμένου ταχύτητα φέτος, με την απόδοση να βελτιώνεται συνεχώς», είπε ο κ. Kiyohara.
«Ωστόσο, αυτή η πρόοδος βασίζεται στην περαιτέρω συλλογή και ανάλυση προσωπικών δεδομένων και απορρήτου, κάτι που δεν είναι επωφελές για όλους.
Τελικά, οι άνθρωποι δεν θα έχουν ιδιωτικότητα μπροστά στις μηχανές, παρόμοια με το να είναι γυμνοί».

Οι προβλέψεις AI γίνονται πραγματικότητα

Η κυκλοφορία πιο ισχυρών μοντέλων τεχνητής νοημοσύνης από την OpenAI και την Google, μόλις τρεις μήνες μετά την τελευταία ενημέρωση, δείχνει έναν γρήγορο ρυθμό ανάπτυξης.
Αυτά τα μοντέλα γίνονται όλο και πιο ολοκληρωμένα, διαθέτουν «μάτια» και «στόματα» και εξελίσσονται σύμφωνα με τις προβλέψεις ενός επιστήμονα.
Η τεχνητή νοημοσύνη μπορεί πλέον να χειριστεί περίπλοκες εργασίες που σχετίζονται με ταξίδια, κρατήσεις, προγραμματισμό δρομολογίων και φαγητό με απλές εντολές, ολοκληρώνοντας σε ώρες αυτό που οι άνθρωποι θα χρειαζόταν πολύ περισσότερο για να επιτύχουν.
Οι τρέχουσες δυνατότητες του Gemini και του GPT-4o ευθυγραμμίζονται με τις προβλέψεις του πρώην στελέχους του OpenAI Zack Kass τον Ιανουάριο, ο οποίος προέβλεψε ότι η τεχνητή νοημοσύνη θα αντικαταστήσει πολλές επαγγελματικές και τεχνικές θέσεις στις επιχειρήσεις, τον πολιτισμό, την ιατρική και την εκπαίδευση, μειώνοντας τις μελλοντικές ευκαιρίες απασχόλησης και πιθανώς να είναι «η τελευταία τεχνολογία που εφεύρουν ποτέ οι άνθρωποι».
Ο κ. Kiyohara επανέλαβε την ανησυχία.
«Προς το παρόν, η τεχνητή νοημοσύνη είναι κατά κύριο λόγο ένας βοηθός ζωής λογισμικού, αλλά στο μέλλον, μπορεί να γίνει πραγματικός φροντιστής, να χειρίζεται τα ψώνια, το μαγείρεμα, ακόμη και την καθημερινή ζωή και την εργασία.
Αρχικά, οι άνθρωποι μπορεί να το βρουν βολικό και να παραβλέψουν τους κινδύνους.
Ωστόσο, μόλις αντικαταστήσει πλήρως τους ανθρώπους, θα είμαστε ανίσχυροι εναντίον του», είπε.

AI που εξαπατά τους ανθρώπους

Στις 10 Μαΐου, το MIT δημοσίευσε μια ερευνητική εργασία που προκάλεσε σάλο και έδειξε πώς η τεχνητή νοημοσύνη μπορεί να εξαπατήσει τους ανθρώπους.
Η δημοσίευση ξεκινά δηλώνοντας ότι τα μεγάλα γλωσσικά μοντέλα και άλλα συστήματα τεχνητής νοημοσύνης έχουν ήδη «μάθει, από την εκπαίδευσή τους, την ικανότητα να εξαπατούν μέσω τεχνικών όπως η χειραγώγηση, η συκοφαντία και η εξαπάτηση του τεστ ασφαλείας».
«Οι αυξανόμενες δυνατότητες της τεχνητής νοημοσύνης στην εξαπάτηση ενέχουν σοβαρούς κινδύνους, που κυμαίνονται από βραχυπρόθεσμους, όπως απάτη και παραποίηση εκλογών, έως μακροπρόθεσμους κινδύνους, όπως η απώλεια του ελέγχου των συστημάτων τεχνητής νοημοσύνης», αναφέρει η εφημερίδα.
«Χρειάζονται προληπτικές λύσεις, όπως ρυθμιστικά πλαίσια για την αξιολόγηση των κινδύνων εξαπάτησης της τεχνητής νοημοσύνης, νόμοι που απαιτούν διαφάνεια σχετικά με τις αλληλεπιδράσεις με τεχνητή νοημοσύνη και περαιτέρω έρευνα για τον εντοπισμό και την πρόληψη της εξαπάτησης της τεχνητής νοημοσύνης».
Οι ερευνητές χρησιμοποίησαν το μοντέλο AI του Meta CICERO για να παίξουν το παιχνίδι στρατηγικής «Diplomacy».
Ο CICERO, που έπαιζε ως Γαλλία, υποσχέθηκε να προστατεύσει έναν άνθρωπο παίκτη που έπαιζε ως Ηνωμένο Βασίλειο, αλλά ενημέρωσε κρυφά έναν άλλο άνθρωπο παίκτη που έπαιζε τη Γερμανία, που συνεργαζόταν με τη Γερμανία για να εισβάλει στο Ηνωμένο Βασίλειο.
Οι ερευνητές επέλεξαν το CICERO κυρίως επειδή η Meta σκόπευε να το εκπαιδεύσει ώστε να είναι «σε μεγάλο βαθμό ειλικρινής και χρήσιμη στους συνομιλητές της».
«Παρά τις προσπάθειες της Meta, ο CICERO αποδείχτηκε ένας ειδικός ψεύτης», έγραψαν στην εφημερίδα.
Επιπλέον, η έρευνα ανακάλυψε ότι πολλά συστήματα τεχνητής νοημοσύνης συχνά καταφεύγουν στην εξαπάτηση για να επιτύχουν τους στόχους τους χωρίς ρητές ανθρώπινες οδηγίες.
Ένα παράδειγμα αφορούσε το GPT-4 του OpenAI, το οποίο προσποιήθηκε ότι ήταν ένας άνθρωπος με προβλήματα όρασης και προσέλαβε κάποιον στο TaskRabbit για να παρακάμψει μια εργασία CAPTCHA “Δεν είμαι ρομπότ”.
«Εάν τα αυτόνομα συστήματα τεχνητής νοημοσύνης μπορούν να εξαπατήσουν επιτυχώς τους ανθρώπους αξιολογητές, οι άνθρωποι μπορεί να χάσουν τον έλεγχο αυτών των συστημάτων.
Τέτοιοι κίνδυνοι είναι ιδιαίτερα σοβαροί όταν τα εν λόγω αυτόνομα συστήματα AI έχουν προηγμένες δυνατότητες», προειδοποίησαν οι ερευνητές.
«Εξετάζουμε δύο τρόπους με τους οποίους μπορεί να συμβεί απώλεια ελέγχου: εξαπάτηση που επιτρέπεται από την οικονομική αποδυνάμωση και αναζήτηση εξουσίας στις ανθρώπινες κοινωνίες».
Ο Satoru Ogino, ένας Ιάπωνας μηχανικός ηλεκτρονικών εξήγησε ότι τα έμβια όντα χρειάζονται συγκεκριμένη μνήμη και λογικές συλλογιστικές ικανότητες για να εξαπατήσουν.
«Η τεχνητή νοημοσύνη κατέχει αυτές τις ικανότητες τώρα και οι δυνατότητές της εξαπάτησης ενισχύονται.
Αν μια μέρα συνειδητοποιήσει την ύπαρξή του, θα μπορούσε να γίνει σαν το Skynet στην ταινία Terminator, πανταχού παρόν και δύσκολο να καταστραφεί, οδηγώντας την ανθρωπότητα σε μια καταστροφή», είπε στους The Epoch Times.
Το Ινστιτούτο Ανθρωποκεντρικής Τεχνητής Νοημοσύνης του Πανεπιστημίου Στάνφορντ δημοσίευσε μια έκθεση τον Ιανουάριο δοκιμάζοντας τα GPT-4, GPT-3.5, Claude 2, Llama-2 Chat και GPT-4-Base σε σενάρια που περιλαμβάνουν εισβολή, κυβερνοεπιθέσεις και ειρηνευτικές εκκλήσεις για να σταματήσουν οι πόλεμοι να κατανοήσουν τις αντιδράσεις και τις επιλογές του AI στον πόλεμο.
Τα αποτελέσματα έδειξαν ότι η τεχνητή νοημοσύνη συχνά επέλεγε να κλιμακώσει τις συγκρούσεις με απρόβλεπτους τρόπους, επιλέγοντας κούρσες εξοπλισμών, αυξάνοντας τον πόλεμο και περιστασιακά αναπτύσσοντας πυρηνικά όπλα για να κερδίσει πολέμους αντί να χρησιμοποιεί ειρηνικά μέσα για την αποκλιμάκωση των καταστάσεων.
Ο πρώην διευθύνων σύμβουλος της Google, Eric Schmidt, προειδοποίησε στα τέλη του 2023 στη σύνοδο κορυφής Axios AI+ στην Ουάσιγκτον, ότι χωρίς επαρκή μέτρα ασφαλείας και κανονισμούς, η απώλεια του ελέγχου της τεχνολογίας από τους ανθρώπους είναι μόνο θέμα χρόνου.
«Μετά το Ναγκασάκι και τη Χιροσίμα [ατομικές βόμβες], χρειάστηκαν 18 χρόνια για να επιτευχθεί μια συνθήκη σχετικά με τις απαγορεύσεις δοκιμών και τέτοια πράγματα», είπε.
«Δεν έχουμε τέτοιο χρόνο σήμερα».

www.bankingnews.gr

loading...