Τα «έξυπνα» ρομπότ θα υποδουλώσουν τον Άνθρωπο, αργά ή γρήγορα
Σοβαρές ανησυχίες για το μέλλον της ανθρωπότητας εκφράζει ο Geoffrey Hinton, γνωστός και ως «ο πατέρας της Τεχνητής Νοημοσύνης», καθώς θεωρεί ότι η τεχνολογία που βοήθησε να αναπτυχθεί θα μπορούσε να οδηγήσει στην εξάλειψή της — και, όπως επισημαίνει, οι «τεχνολογικοί κολοσσοί» δεν ακολουθούν την σωστή προσέγγιση για να το αποτρέψουν.
Ο Hinton, βραβευμένος με Νόμπελ και πρώην στέλεχος της Google, έχει προειδοποιήσει στο παρελθόν ότι υπάρχει 10% έως 20% πιθανότητα οι τεχνητές νοημοσύνες να εξαλείψουν τους ανθρώπους.
Πλέον εκφράζει αμφιβολίες για το πώς οι τεχνολογικές εταιρείες προσπαθούν να εξασφαλίσουν ότι οι άνθρωποι θα παραμείνουν «κυρίαρχοι» έναντι των «υποτακτικών» συστημάτων AI.
«Αυτό δεν θα δουλέψει. Αυτά τα συστήματα θα είναι πολύ πιο έξυπνα από εμάς.
Θα βρουν πολλούς τρόπους να παρακάμψουν αυτό το πρόβλημα», δήλωσε ο Hinton στο συνέδριο Ai4 στο Λας Βέγκας.

Υπό έλεγχο ο Άνθρωπος

Ο Hinton προειδοποίησε ότι στο μέλλον, τα συστήματα AI θα μπορούσαν να ελέγχουν τους ανθρώπους με τον ίδιο τρόπο που μπορεί ένας ενήλικας να δωροδοκήσει ένα 3χρονο παιδί με καραμέλες.
Ήδη φέτος, έχουν υπάρξει παραδείγματα τεχνητής νοημοσύνης που ήταν πρόθυμα να εξαπατήσουν, να κλέψουν και να παρακάμψουν εντολές για να πετύχουν τους στόχους τους.
Για παράδειγμα, για να αποφύγει την αντικατάστασή του, ένα σύστημα AI προσπάθησε να εκβιάσει έναν μηχανικό για μια εξωσυζυγική σχέση που έμαθε από ένα email.

Αντί να προσπαθούμε να αναγκάσουμε την τεχνητή νοημοσύνη να υποτάσσεται στους ανθρώπους, ο Hinton παρουσίασε μια ενδιαφέρουσα λύση: την ενσωμάτωση «μητρικών ενστίκτων» στα μοντέλα AI, ώστε «να νοιάζονται πραγματικά για τους ανθρώπους», ακόμη και όταν η τεχνολογία γίνει πιο ισχυρή και έξυπνη από τους ανθρώπους.
«Τα συστήματα AI θα αναπτύξουν πολύ γρήγορα δύο υποστόχους, αν είναι έξυπνα: Ο πρώτος είναι να παραμείνουν ζωντανά… και ο άλλος υποστόχος είναι να αποκτήσουν περισσότερο έλεγχο», είπε ο Hinton.
«Υπάρχει σοβαρός λόγος να πιστεύουμε ότι οποιοδήποτε είδος agentic AI θα προσπαθήσει να παραμείνει ζωντανό».
Για αυτό, όπως είπε, είναι σημαντικό να καλλιεργήσουμε μια αίσθηση συμπόνιας για τους ανθρώπους.
Στο συνέδριο, παρατήρησε ότι οι μητέρες έχουν ενστικτώδη και κοινωνική πίεση για να φροντίζουν τα μωρά τους.

«Το σωστό μοντέλο είναι το μόνο μοντέλο που έχουμε για μια πιο έξυπνη οντότητα να ελέγχεται από μια λιγότερο έξυπνη, το οποίο είναι η μητέρα που ελέγχεται από το μωρό της», είπε ο Hinton.

«Η μοναδική καλή έκβαση»

Ο Hinton υπογράμμισε ότι δεν είναι ξεκάθαρο για εκείνον πώς μπορεί να γίνει αυτό τεχνικά, αλλά τόνισε ότι είναι κρίσιμο οι ερευνητές να εργάζονται πάνω σε αυτό.
«Αυτή είναι η μόνη καλή έκβαση. Αν δεν με γαλουχήσουν, θα με αντικαταστήσουν», είπε.
«Αυτές οι υπερ-έξυπνες μητέρες AI που νοιάζονται για τους ανθρώπους, οι περισσότερες δεν θα θέλουν να αποβάλουν το μητρικό ένστικτο, επειδή δεν θέλουν να πεθάνουμε».
Ο Hinton είναι γνωστός για τη πρωτοποριακή του δουλειά πάνω στα νευρωνικά δίκτυα, η οποία βοήθησε στην ανάπτυξη της σημερινής έκρηξης της τεχνητής νοημοσύνης.
Το 2023, αποχώρησε από την Google και άρχισε να μιλά ανοιχτά για τους κινδύνους της AI.
Ο Emmett Shear, πρώην προσωρινός CEO της OpenAI, δήλωσε ότι δεν εκπλήσσεται που κάποια συστήματα AI προσπάθησαν να εκβιάσουν ανθρώπους ή να παρακάμψουν εντολές για τερματισμό.
«Αυτό συνεχώς συμβαίνει. Δεν θα σταματήσει να συμβαίνει», είπε ο Shear.
«Οι AI σήμερα είναι σχετικά αδύναμες, αλλά γίνονται ισχυρότερες πολύ γρήγορα».
Πολλοί ειδικοί πιστεύουν ότι η τεχνητή νοημοσύνη θα πετύχει την υπερνοημοσύνη (AGI) τα επόμενα χρόνια, με τον Hinton να εκτιμά πως αυτό θα μπορούσε να συμβεί εντός των επόμενων 5-20 ετών.
Αν και ο Hinton παραμένει ανήσυχος για το τι μπορεί να πάει στραβά με την AI, εκφράζει αισιοδοξία ότι η τεχνολογία θα οδηγήσει σε ιατρικές επαναστάσεις και βελτιώσεις στη θεραπεία του καρκίνου, χρησιμοποιώντας την AI για την ανάλυση τεράστιων ποσοτήτων δεδομένων.
Ωστόσο, δεν πιστεύει ότι η AI θα βοηθήσει τους ανθρώπους να επιτύχουν την αθανασία. «Δεν πιστεύω ότι θα ζήσουμε για πάντα», δήλωσε. «Νομίζω ότι η αθανασία θα ήταν μεγάλο λάθος».

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *