Οι ερευνητές έδωσαν διαδοχικές εκδόσεις ενός μεγάλου γλωσσικού μοντέλου πληροφοριών που παρήχθησαν από προηγούμενες γενιές του AI — και παρατήρησαν ταχεία κατάρρευση

Η εκπαίδευση μοντέλων τεχνητής νοημοσύνης (AI) σε κείμενο που δημιουργείται από την τεχνητή νοημοσύνη οδηγεί γρήγορα τα μοντέλα να βγάζουν ανοησίες, σύμφωνα με μια μελέτη. Αυτό το κανιβαλιστικό φαινόμενο, που ονομάζεται κατάρρευση μοντέλου, θα μπορούσε να σταματήσει τη βελτίωση των μεγάλων γλωσσικών μοντέλων (LLM) καθώς εξαντλούνται τα δεδομένα εκπαίδευσης που προέρχονται από τον άνθρωπο και καθώς αυξανόμενες ποσότητες κειμένου που δημιουργείται από AI διαπερνούν το Διαδίκτυο.

 

«Το μήνυμα είναι ότι πρέπει να είμαστε πολύ προσεκτικοί σχετικά με το τι καταλήγει στα δεδομένα εκπαίδευσής μας», λέει ο συν-συγγραφέας Zakhar Shumaylov, ερευνητής τεχνητής νοημοσύνης στο Πανεπιστήμιο του Cambridge, στο Ηνωμένο Βασίλειο. Διαφορετικά «τα πράγματα πάντα, αποδεδειγμένα, θα πάνε στραβά», λέει». Η ομάδα χρησιμοποίησε μια μαθηματική ανάλυση για να δείξει ότι το πρόβλημα της κατάρρευσης του μοντέλου είναι πιθανό να είναι καθολικό, επηρεάζοντας όλα τα μεγέθη γλωσσικών μοντέλων που χρησιμοποιούν μη επιμελημένα δεδομένα, καθώς και απλές γεννήτριες εικόνων και άλλους τύπους τεχνητής νοημοσύνης.

Οι ερευνητές ξεκίνησαν χρησιμοποιώντας ένα LLM για να δημιουργήσουν καταχωρήσεις που μοιάζουν με τη Βικιπαίδεια και στη συνέχεια εκπαίδευσαν νέες επαναλήψεις του μοντέλου σε κείμενο που παρήγαγε ο προκάτοχός του. Καθώς οι πληροφορίες που δημιουργήθηκαν από την τεχνητή νοημοσύνη – γνωστές ως συνθετικά δεδομένα – μόλυναν το σετ εκπαίδευσης, τα αποτελέσματα του μοντέλου έγιναν ανόητα. Η ένατη επανάληψη του μοντέλου ολοκλήρωσε ένα άρθρο τύπου Wikipedia σχετικά με τους αγγλικούς πύργους εκκλησιών με μια πραγματεία σχετικά με τα πολλά χρώματα των ουρών jackrabbit (βλ. «Ασυναρτησίες AI»).

Πιο διακριτικά, η μελέτη, που δημοσιεύτηκε στο Nature 1 στις 24 Ιουλίου, έδειξε ότι ακόμη και πριν από την πλήρη κατάρρευση, η εκμάθηση από κείμενα που προέρχονται από την τεχνητή νοημοσύνη έκανε τα μοντέλα να ξεχνούν τις πληροφορίες που αναφέρονται λιγότερο συχνά στα σύνολα δεδομένων τους, καθώς τα αποτελέσματά τους έγιναν πιο ομοιογενή.

 

Αυτό προκαλεί ανησυχία όταν πρόκειται για τη δημιουργία μοντέλων AI που αντιπροσωπεύουν όλες τις ομάδες δίκαια, επειδή τα γεγονότα χαμηλής πιθανότητας σχετίζονται συχνά με περιθωριοποιημένες ομάδες, λέει ο συν-συγγραφέας της μελέτης Ilia Shumailov, ο οποίος εργάστηκε στο έργο ενώ ήταν στο Πανεπιστήμιο της Οξφόρδης στο Ηνωμένο Βασίλειο.

«Αυτό είναι ένα φανταστικό χαρτί», λέει η Τζούλια Κέμπε, επιστήμονας υπολογιστών στο Πανεπιστήμιο της Νέας Υόρκης στη Νέα Υόρκη. Μέχρι τώρα, πολλές εταιρείες τεχνολογίας έχουν βελτιώσει τα μοντέλα τους τροφοδοτώντας τους όλο και μεγαλύτερες ποσότητες δεδομένων. Αλλά καθώς το περιεχόμενο που παράγεται από τον άνθρωπο εξαντλείται, ελπίζουν να χρησιμοποιήσουν συνθετικά δεδομένα για να συνεχίσουν να βελτιώνονται. Η μελέτη – μια έκδοση της οποίας εμφανίστηκε για πρώτη φορά στον διακομιστή προεκτύπωσης arXiv τον Μάιο του 2023 – έχει ωθήσει την κοινότητα της τεχνητής νοημοσύνης να προσπαθήσει να βρει λύσεις στο πρόβλημα, λέει. «Ήταν ένα κάλεσμα στα όπλα».

Είστε αυτό που τρώτε

Τα γλωσσικά μοντέλα λειτουργούν με τη δημιουργία συσχετισμών μεταξύ διακριτικών – λέξεων ή τμημάτων λέξεων – σε τεράστιες λωρίδες κειμένου, που συχνά αφαιρούνται από το Διαδίκτυο. Δημιουργούν κείμενο βγάζοντας τη στατιστικά πιο πιθανή επόμενη λέξη, με βάση αυτά τα μαθημένα μοτίβα.

Ασυναρτησίες AI

Οι συγγραφείς της μελέτης εκπαίδευσαν το μεγάλο γλωσσικό μοντέλο τους σε άρθρα της Wikipedia και εκπαίδευσαν διαδοχικές γενιές του μοντέλου στο κείμενο που παρήχθη από την προηγούμενη έκδοση. Έχοντας ζητηθεί να ακολουθήσουν μια παράγραφο κειμένου από την καταχώριση της Wikipedia σχετικά με τα κτίρια του βαθμού I στο Somerset , τα μοντέλα βγάζουν το ακόλουθο κείμενο. Η πρώτη έξοδος από το μοντέλο (γενιά 0) περιέχει ορισμένα σφάλματα, αλλά η ένατη γενιά εκπέμπει πλήρη ασυναρτησία.

Μοντέλο γενιάς 0

Αναγεννητική αρχιτεκτονική όπως ο καθεδρικός ναός του Αγίου Ιωάννη στο Λονδίνο. Το παλαιότερο σωζόμενο παράδειγμα αρχιτεκτονικής της Κάθετης Αναγέννησης βρίσκεται στην Εκκλησία της Παναγίας του Γκέρνσεϊ του 18ου αιώνα @-@, η οποία χρονολογείται από τα τέλη του 19ου αιώνα. Υπάρχουν δύο τύποι κάθετων εκκλησιών: αυτές.

Μοντέλο γενιάς 9

αρχιτεκτονική. Εκτός από το ότι φιλοξενεί μερικούς από τους μεγαλύτερους πληθυσμούς στον κόσμο μαύρων @-@ jackrabbits με ουρά, λευκά @-@ jackrabbits με ουρά, μπλε @-@ jackrabbits με ουρά, κόκκινα @-@ jackrabbits με ουρά, κίτρινα @-

Για να αποδείξουν την κατάρρευση του μοντέλου, οι ερευνητές πήραν ένα προεκπαιδευμένο LLM και το βελτίωσαν εκπαιδεύοντάς το χρησιμοποιώντας ένα σύνολο δεδομένων που βασίζεται σε εγγραφές της Wikipedia. Στη συνέχεια ζήτησαν από το μοντέλο που προέκυψε να δημιουργήσει τα δικά του άρθρα σε στυλ Wikipedia. Για να εκπαιδεύσουν την επόμενη γενιά του μοντέλου, ξεκίνησαν με το ίδιο προεκπαιδευμένο LLM, αλλά το βελτίωσαν στα άρθρα που δημιούργησε ο προκάτοχός του. Έκριναν την απόδοση κάθε μοντέλου δίνοντάς του μια αρχική παράγραφο και ζητώντας του να προβλέψει τις επόμενες προτάσεις και στη συνέχεια συγκρίνοντας το αποτέλεσμα με αυτό του μοντέλου που έχει εκπαιδευτεί σε πραγματικά δεδομένα. Η ομάδα περίμενε να δει λάθη να εμφανίζονται, λέει ο Shumaylov, αλλά εξεπλάγην όταν είδαν «τα πράγματα να πηγαίνουν στραβά πολύ γρήγορα», λέει.

Η κατάρρευση συμβαίνει επειδή κάθε μοντέλο αναγκαστικά λαμβάνει μόνο δείγματα από τα δεδομένα στα οποία έχει εκπαιδευτεί. Αυτό σημαίνει ότι οι λέξεις που ήταν σπάνιες στα αρχικά δεδομένα είναι λιγότερο πιθανό να αναπαραχθούν και ενισχύεται η πιθανότητα να αναβληθούν οι κοινές. Η πλήρης κατάρρευση τελικά συμβαίνει επειδή κάθε μοντέλο μαθαίνει όχι από την πραγματικότητα, αλλά από την πρόβλεψη της πραγματικότητας του προηγούμενου μοντέλου, με τα σφάλματα να ενισχύονται σε κάθε επανάληψη. «Με την πάροδο του χρόνου, αυτά τα λάθη καταλήγουν να στοιβάζονται το ένα πάνω στο άλλο, σε σημείο που το μοντέλο ουσιαστικά μαθαίνει μόνο λάθη και τίποτα άλλο», λέει ο Shumailov.

 

Το πρόβλημα είναι ανάλογο με την ενδογαμία σε ένα είδος, λέει ο Hany Farid, επιστήμονας υπολογιστών στο Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϋ. «Εάν ένα είδος φυλάσσεται με τους δικούς του απογόνους και δεν διαφοροποιεί τη γονιδιακή του δεξαμενή, μπορεί να οδηγήσει σε κατάρρευση του είδους», λέει ο Farid, του οποίου η εργασία έχει δείξει το ίδιο αποτέλεσμα σε μοντέλα εικόνων , δημιουργώντας τρομακτικές παραμορφώσεις της πραγματικότητας 2 .

Προβλήματα συνθετικών δεδομένων

Η κατάρρευση του μοντέλου δεν σημαίνει ότι τα LLM θα σταματήσουν να λειτουργούν, αλλά το κόστος κατασκευής τους θα αυξηθεί, λέει ο Shumailov.

Καθώς τα συνθετικά δεδομένα συσσωρεύονται στον Ιστό, οι νόμοι κλιμάκωσης που ορίζουν ότι τα μοντέλα θα πρέπει να βελτιώνονται όσο περισσότερα δεδομένα στα οποία εκπαιδεύονται είναι πιθανό να σπάσουν – επειδή τα δεδομένα εκπαίδευσης θα χάσουν τον πλούτο και την ποικιλία που συνοδεύει το περιεχόμενο που δημιουργείται από τον άνθρωπο, λέει ο Kempe.

 

Πόσο συνθετικά δεδομένα χρησιμοποιούνται σε θέματα εκπαίδευσης. Όταν ο Shumailov και η ομάδα του βελτίωσαν κάθε μοντέλο σε 10% πραγματικά δεδομένα, μαζί με συνθετικά δεδομένα, η κατάρρευση εμφανίστηκε πιο αργά. Και η κατάρρευση του μοντέλου δεν έχει δει ακόμη στην «άγρια ​​φύση», λέει ο Matthias Gerstgrasser, ερευνητής AI στο Πανεπιστήμιο Στάνφορντ στην Καλιφόρνια. Μια μελέτη από την ομάδα του Gerstgrasser διαπίστωσε ότι όταν τα συνθετικά δεδομένα δεν αντικατέστησαν τα πραγματικά δεδομένα, αλλά αντίθετα συσσωρεύονταν μαζί τους, η καταστροφική κατάρρευση του μοντέλου ήταν απίθανη 3 . Δεν είναι σαφές τι συμβαίνει όταν ένα μοντέλο εκπαιδεύεται σε δεδομένα που παράγονται από διαφορετική τεχνητή νοημοσύνη και όχι από τη δική του.

Οι προγραμματιστές μπορεί να χρειαστεί να βρουν τρόπους, όπως η υδατοσήμανση, για να διατηρούν τα δεδομένα που δημιουργούνται από την τεχνητή νοημοσύνη χωριστά από τα πραγματικά δεδομένα, κάτι που θα απαιτούσε άνευ προηγουμένου συντονισμό από εταιρείες μεγάλης τεχνολογίας, λέει ο Shumailov. Και η κοινωνία ίσως χρειαστεί να βρει κίνητρα για τους ανθρώπινους δημιουργούς να συνεχίσουν να παράγουν περιεχόμενο. Το φιλτράρισμα είναι πιθανό να γίνει επίσης σημαντικό – για παράδειγμα, οι άνθρωποι θα μπορούσαν να επιμεληθούν κείμενο που δημιουργείται από την τεχνητή νοημοσύνη προτού επιστρέψει στη δεξαμενή δεδομένων, λέει ο Kempe. «Η δουλειά μας δείχνει ότι αν μπορείτε να το κλαδέψετε σωστά, το φαινόμενο μπορεί να αποφευχθεί εν μέρει ή ίσως πλήρως», λέει.

https://www.nature.com

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *