Η τεχνητή νοημοσύνη υποφέρει από «ανθρώπινες» παραισθήσεις και έμαθε να λέει ψέματα!
Η τεχνητή νοημοσύνη (AI) συνεχίζει να εντυπωσιάζει με τις ικανότητές της, αλλά ταυτόχρονα εγείρει όλο και περισσότερα ερωτήματα σχετικά με την αξιοπιστία της.
Νέα μελέτη της OpenAI αποκάλυψε μια ανησυχητική τάση: όσο πιο εξελιγμένα γίνονται τα γλωσσικά μοντέλα, όπως το ChatGPT ή το Gemini, τόσο πιο συχνά παρουσιάζουν το φαινόμενο των λεγόμενων «παραισθήσεων» — δηλαδή, δημιουργούν ψευδείς πληροφορίες που όμως ακούγονται εξαιρετικά πειστικές.
Σύμφωνα με τα δεδομένα της OpenAI, τα δύο νεότερα μοντέλα, o3 και o4-mini, εμφάνισαν παραισθήσεις στο 33% και 48% των περιπτώσεων αντίστοιχα σε συγκεκριμένα τεστποσοστά δύο έως τρεις φορές υψηλότερα από εκείνα των προηγούμενων γενεών.
Αυτό προκαλεί έντονη ανησυχία, ιδίως επειδή η τεχνητή νοημοσύνη χρησιμοποιείται όλο και περισσότερο σε ευαίσθητους τομείς όπως η ιατρική, η νομική και η επιστημονική έρευνα, όπου τα λάθη μπορεί να έχουν σοβαρές συνέπειες.

Τι σημαίνει παραίσθηση για την ΑΙ

Στο πλαίσιο της AI, ο όρος «παραίσθηση» σημαίνει τη δημιουργία πληροφοριών που δεν ανταποκρίνονται στην πραγματικότητα, αλλά παρουσιάζονται με λογική δομή και μεγάλη αυτοπεποίθηση.
Αυτό μπορεί να αφορά πλασματικά στατιστικά, ανύπαρκτες πηγές, ψευδείς παραπομπές ή ακόμη και λάθος λύσεις σε μαθηματικά προβλήματαόλα δοσμένα με φαινομενική ακρίβεια.
Αν και το φαινόμενο είναι γνωστό στους ειδικούς εδώ και καιρό, η κλίμακά του έχει γίνει ιδιαίτερα ανησυχητική όσο τα μοντέλα βελτιώνονται. Όσο πιο καλά «σκέφτεται» και εκφράζεται ένα μοντέλο, τόσο πιο πιστευτά γίνονται τα λάθη του — γεγονός που το καθιστά επικίνδυνο για χρήστες χωρίς τεχνικές γνώσεις ή επαρκή κρίση.

Είναι κρίσιμο να κατανοήσουμε ότι αυτά τα λάθη δεν είναι απλές δυσλειτουργίες.

Όπως εξηγούν οι ερευνητές, είναι εγγενή στην αρχιτεκτονική των μεγάλων γλωσσικών μοντέλων (LLM).
Οι ΑΙ δεν «γνωρίζουν» γεγονότα όπως μια μηχανή αναζήτησης, αλλά προβλέπουν την πιθανότερη ακολουθία λέξεων βάσει τεράστιου όγκου δεδομένων.
Για να παράγουν πρωτότυπο περιεχόμενο — όπως ποίηση, σενάρια ή λύσεις προβλημάτωνοι ΑΙ πρέπει να ξεφεύγουν από αυστηρά πρότυπα.

Αυτή η δημιουργικότητα συχνά οδηγεί σε «αποκλίσεις» που θυμίζουν τα όνειρα του ανθρώπινου εγκεφάλου.
Αυτή η ιδιότητα είναι ταυτόχρονα το μεγαλύτερο πλεονέκτημα και η μεγαλύτερη αδυναμία της τεχνητής νοημοσύνης.

Που οφείλονται;

Μια ειδικός στην ηθική της ΑΙ από το IEEE σημειώνει ότι η αιτία αυτών των σφαλμάτων δεν είναι η έλλειψη δεδομένων, αλλά η υπερβολική πολυπλοκότητα των συλλογισμών που παράγουν τα πιο εξελιγμένα μοντέλα.
Ένας άλλος ερευνητής τόνισε ότι «όλα όσα δημιουργεί η ΑΙ είναι κατά κάποιον τρόπο παραισθήσεις — απλώς κάποιες τυχαίνει να είναι σωστές».
Αυτός ο παράδοξος μηχανισμός βρίσκεται στον πυρήνα των σύγχρονων προκλήσεων της τεχνητής νοημοσύνης: για να καινοτομεί, το μοντέλο πρέπει να είναι δημιουργικό, αλλά για να είναι αξιόπιστο, πρέπει να είναι απόλυτα ακριβές.

Περιορισμός του προβλήματος

Ωστόσο, οι επιστήμονες εκτιμούν ότι το πρόβλημα μπορεί να περιοριστεί.

Μία από τις πιο υποσχόμενες προσεγγίσεις είναι η τεχνική RAG (Retrieval-Augmented Generation), η οποία επιτρέπει στα μοντέλα να ανατρέχουν σε επαληθευμένες βάσεις δεδομένων για να επιβεβαιώνουν τις πληροφορίες που παρέχουν, αντί να βασίζονται αποκλειστικά στο εκπαιδευτικό τους υλικό.
Συζητούνται επίσης τρόποι που θα επιτρέπουν στην ΑΙ να εξηγεί τα συλλογιστικά της βήματα, να παραθέτει εναλλακτικές απαντήσεις ή να δηλώνει αβεβαιότητα όταν δεν είναι σίγουρη — καθιστώντας τη λιγότερο «κατηγορηματική».
Ωστόσο, κανένα από αυτά τα μέτρα δεν εγγυάται απόλυτη ακρίβεια.

Ανθρώπινι κριτική ικανότητα… το ισχυρότερο εργαλείο επαλήθευσης

Μέχρι να τελειοποιηθούν οι τεχνολογίες, οι ειδικοί τονίζουν ότι το κριτικό πνεύμα παραμένει η καλύτερη άμυνα απέναντι στις παραισθήσεις της ΑΙ.

Προτείνουν στους χρήστες να αντιμετωπίζουν τις απαντήσεις της ΑΙ με την ίδια επιφύλαξη που θα είχαν απέναντι σε έναν άνθρωπο — και πάντα να διασταυρώνουν τα γεγονότα, ειδικά όταν «φαίνονται πολύ σωστά για να είναι αληθινά».
Η τελική ευθύνη για τη λήψη αποφάσεων παραμένει στον άνθρωπο, όχι στις μηχανές, που προς το παρόν δημιουργούν κείμενα — όχι αλήθειες.

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *