Uno studio su Nature presenta i risultati dei test ottenuti cambiando l’approccio di addestramento delle reti neurali, per renderle capaci di generalizzare i concetti
Il divario tra intelligenza artificiale e cervello umano si assottiglia sempre più.
Anche in un campo, quello del linguaggio, in cui alcuni aspetti della nostra intelligenza sembravano irraggiungibili per un computer.
Si apre così la strada per la realizzazione di macchine in grado di interagire con le persone in modo sempre più naturale, evitando alcune delle evidenti lacune e incoerenze mostrate dalle AI finora più diffuse.
Lo studio “Generalizzazione sistematica simile a quella umana attraverso una rete neurale di meta-apprendimento” di Brenden M. Lake, scienziato cognitivo computazionale della New York University, e del linguista italiano dell’Icrea di Barcelona Marco Baroni, pubblicato sulla rivista Nature, riporta infatti i positivi risultati riguardo alla capacità di generalizzare i concetti espressi attraverso la lingua ottenuti attraverso un diverso addestramento delle AI basate su reti neurali.
Le capacità del cervello umano e l’AI
Confrontato con l’intelligenza artificiale utilizzata da ChatGPT, pur capace di partecipare efficacemente a una conversazione, il nuovo modello di AI ha dato risposte molto superiori nei test rispetto al noto chatbot, con risultati paragonabili a quelli delle persone che hanno partecipato agli esperimenti.
L’AI basata su reti neurali si è dimostrata cioè in grado di inserire rapidamente nel proprio lessico parole appena apprese e di utilizzarle in nuovi concetti: un aspetto, definito “generalizzazione sistematica” o “composizionalità sistematica” (ovvero la capacità di comprendere e produrre nuove combinazioni da componenti noti), considerato tra quelli “chiave” dell’intelligenza umana.
Per esempio, se a noi sembra scontato che chi capisce il significato di una frase come “il bambino guarda la mamma” capisca immediatamente anche la frase “la mamma guarda il bambino”, questo non avviene in maniera innata nelle reti neurali artificiali, che devono quindi essere opportunamente addestrate per ottenere lo stesso risultato.
Da quasi 40 anni, la sfida lanciata dal filosofo Jerry Fodor e dal cognitivista Zenon Pylyshyn ai ricercatori dell’intelligenza artificiale è stata proprio quella di arrivare a reti neurali artificiali in possesso di questa capacità sistematica.
“Qui – riportano gli studiosi nell’estratto dello studio – affrontiamo con successo la sfida, fornendo la prova che le reti neurali possono raggiungere una sistematicità simile a quella umana se ottimizzate per le loro capacità compositive”.
Le risposte dell’uomo ai test
Lo studio di Lake e Baroni è partito dai test su un campione di 25 persone per verificare l’utilizzo di parole apprese per la prima volta.
Per garantire che si trattasse effettivamente di termini non conosciuti, è stato creato uno pseudo-linguaggio composto da 2 categorie di parole senza senso.
La prima categoria comprendeva parole “primitive”, per rappresentare azioni basilari come per esempio “dax” per dire “salta” o “fep” per “tre volte”. La seconda parole “funzionali” più astratte, con regole per la combinazione con le primitive (tipo “dax fep” per “salta tre volte”).
I partecipanti sono quindi stati addestrati a collegare ciascuna parola primitiva con un cerchio di un colore particolare (come uno rosso per “dax”, uno blu per “lug”) e sono state mostrate loro combinazioni di parole primitive e funzionali insieme ai modelli di cerchi che sarebbero risultati. Per esempio, la frase “dax fep” è stata mostrata con tre cerchi rossi e “lug fep” con tre cerchi blu, a indicare che fep denota una regola astratta per ripetere una primitiva tre volte.
Per testare la capacità di applicare le regole astratte, sono state infine fornite complesse combinazioni di parole primitive e di funzioni, chiedendo di selezionare il colore e il numero di cerchi corretti e posizionarli nell’ordine appropriato.
Con risposte ottime: mediamente, è stata indicata una combinazione corretta nell’80% dei casi,. E, in caso di errori, i ricercatori hanno notato che questi seguivano uno schema che rifletteva i pregiudizi umani noti.
Il comportamento delle intelligenze artificiali
Lo stesso tipo di esperimento è stato successivamente ripetuto su una rete neurale programmata per imparare dai propri errori, superando dunque l’impostazione improntata su soli dati statici, abitualmente utilizzata per le AI, e consentendo così di apprendere ulteriori nozioni in seguito al completamento progressivo di ogni attività.
A tal fine è stato introdotto anche per l’intelligenza artificiale quello che viene definito “approccio del meta-apprendimento per la composizionalità” (Mlc).
L’AI è stata in altri termini addestrata a riprodurre i modelli di errori osservati nei risultati dei test sugli esseri umani. Gli stessi test a cui è stata poi sottoposta la rete neurale. Ed è emerso che, di fronte a nuovi enigmi, le risposte dell’AI corrispondevano quasi esattamente a quelle dei volontari umani, superando addirittura in alcuni casi le loro prestazioni, mentre Gpt-4 ha avuto difficoltà con lo stesso compito, con una percentuale di fallimenti tra il 42% e l’86%, a seconda di come è stato presentato il problema
“Dopo aver considerato 7 diversi modelli – conclude l’abstract dello studio – abbiamo scoperto che solo Mlc raggiunge sia la sistematicità che la flessibilità necessarie per la generalizzazione di tipo umano. Mlc migliora inoltre le capacità compositive dei sistemi di apprendimento automatico in diversi benchmark di generalizzazione sistematica”.
Alberto Minazzi