Η έρευνα είναι μία από τις πολλές που έχουν διεξαχθεί για να κατανοηθεί πώς τα μοντέλα τεχνητής νοημοσύνης αναπτύσσουν τις ικανότητές τους πριν τις επιδείξουν.
Η μελέτη ανέλυσε τον τρόπο με τον οποίο τα AI μοντέλα μαθαίνουν βασικές έννοιες, όπως το μέγεθος και το χρώμα, αποκαλύπτοντας ότι αποκτούν αυτές τις δεξιότητες πολύ νωρίτερα από ό,τι υποδεικνύουν τα περισσότερα τεστ.
Παράλληλα, σύμφωνα με το cryptopolitan.com ,η έρευνα προσέφερε μια νέα οπτική για την πολυπλοκότητα της μέτρησης των δυνατοτήτων ενός AI. «Ένα μοντέλο μπορεί να φαίνεται ανεπαρκές όταν του δίνονται τυπικές εντολές, ενώ στην πραγματικότητα κατέχει πολύπλοκες ικανότητες που αναδύονται μόνο υπό συγκεκριμένες συνθήκες», αναφέρει η μελέτη.
Η εσωτερίκευση εννοιών από τα μοντέλα AI
Τα πανεπιστήμια Harvard και Michigan δεν είναι τα πρώτα που προσπάθησαν να κατανοήσουν τις δυνατότητες των AI. Οι ερευνητές της Anthropic παρουσίασαν μια μελέτη με τίτλο «dictionary learning», που αναφέρεται στη χαρτογράφηση συνδέσεων στις έννοιες που αντιλαμβάνεται το γλωσσικό μοντέλο Claude.
Στην έρευνα της Anthropic, ανακαλύφθηκαν εκατομμύρια χαρακτηριστικά που συνδέονται με ερμηνεύσιμες έννοιες. Αυτές οι έννοιες εκτείνονται από συγκεκριμένα αντικείμενα, όπως άνθρωποι, χώρες και διάσημα κτίρια, έως αφηρημένες ιδέες, όπως συναισθήματα, στυλ γραφής και βήματα λογικής.
Νέες μέθοδοι για την αποκάλυψη κρυμμένων ικανοτήτων
Οι ερευνητές χρησιμοποίησαν μεθόδους όπως η «γραμμική λανθάνουσα παρέμβαση» και το «υπερβολικό prompting», για να αποκαλύψουν τις κρυμμένες ικανότητες των AI. Με αυτές τις μεθόδους, τα μοντέλα εμφάνιζαν πολύπλοκες συμπεριφορές πριν από την επίσημη ανίχνευσή τους σε τυπικές δοκιμές.
Η έρευνα κατέδειξε ότι οι ικανότητες των AI αναδύονται κατά τη διάρκεια ενεργούς μάθησης και όχι μέσω σταδιακής βελτίωσης, όπως συμβαίνει στη διαδικασία «grokking».
Συνοψίζοντας, τα μοντέλα AI κατέχουν περισσότερες ικανότητες από όσες δείχνουν και η κατανόηση ή ο έλεγχός τους παραμένει μια πρόκληση.