HomeTechL'intelligenza artificiale sta cambiando la comprensione degli scienziati dell'apprendimento delle lingue e...

L’intelligenza artificiale sta cambiando la comprensione degli scienziati dell’apprendimento delle lingue e sta sollevando domande su una grammatica innata

A differenza dei dialoghi accuratamente sceneggiati che si trovano nella maggior parte dei libri e dei film, il linguaggio dell’interazione quotidiana tende a essere disordinato e incompleto, pieno di false partenze, interruzioni e persone che parlano tra loro. Dalle conversazioni casuali tra amici, ai litigi tra fratelli, alle discussioni formali in una sala riunioni, la conversazione autentica e caotica. Sembra miracoloso che chiunque possa imparare la lingua, data la natura casuale dell’esperienza linguistica.

Per questo motivo, molti scienziati linguistici, tra cui Noam Chomsky, uno dei fondatori della linguistica moderna, credono che gli studenti di lingue necessitino di una sorta di colla per tenere a freno la natura indisciplinata del linguaggio quotidiano. E quel collante e la grammatica: un sistema di regole per generare frasi grammaticali.

I bambini devono avere un modello grammaticale cablato nel cervello per aiutarli a superare i limiti della loro esperienza linguistica, o almeno cosi si pensa.

Questo modello, ad esempio, potrebbe contenere una “super regola” che determina come vengono aggiunti nuovi brani alle frasi esistenti. I bambini devono quindi solo imparare se la loro lingua madre e una, come l’inglese, dove il verbo va prima dell’oggetto (come in “I eat sushi”), o una come il giapponese, dove il verbo va dopo l’oggetto (in giapponese, il la stessa frase e strutturata come “I sushi eat”).

Ma nuove intuizioni sull’apprendimento delle lingue provengono da una fonte improbabile: l’intelligenza artificiale. Una nuova generazione di grandi modelli linguistici di intelligenza artificiale puo scrivere articoli di giornale, poesie e codici informatici e rispondere alle domande in modo veritiero dopo essere stati esposti a grandi quantita di input linguistici. E ancora piu sorprendentemente, lo fanno tutti senza l’aiuto della grammatica.

Linguaggio grammaticale senza grammatica

Anche se la loro scelta delle parole a volte e strana, priva di senso o contiene pregiudizi razzisti, sessisti e altri pregiudizi dannosi, una cosa e molto chiara: la stragrande maggioranza dei risultati di questi modelli linguistici dell’IA e grammaticalmente corretta. Eppure, non ci sono modelli grammaticali o regole cablate al loro interno: si basano solo sull’esperienza linguistica, per quanto disordinata possa essere.

GPT-3, probabilmente il piu noto di questi modelli, e una gigantesca rete neurale ad apprendimento profondo con 175 miliardi di parametri. E stato addestrato per predire la parola successiva in una frase, dato cio che e venuto prima attraverso centinaia di miliardi di parole da Internet, libri e Wikipedia. Quando faceva una previsione sbagliata, i suoi parametri venivano regolati usando un algoritmo di apprendimento automatico.

Sorprendentemente, GPT-3 puo generare testo credibile che reagisce a richieste come “Un riassunto dell’ultimo film ‘Fast and Furious’ e…” o “Scrivi una poesia nello stile di Emily Dickinson”. Inoltre, GPT-3 puo rispondere ad analogie di livello SAT, leggere domande di comprensione e persino risolvere semplici problemi aritmetici, il tutto dall’apprendimento di come predire la parola successiva.

Confronto tra modelli di IA e cervelli umani

Tuttavia, la somiglianza con il linguaggio umano non si ferma qui. La ricerca pubblicata su Nature Neuroscience ha dimostrato che queste reti artificiali di apprendimento profondo sembrano utilizzare gli stessi principi computazionali del cervello umano. Il gruppo di ricerca, guidato dal neuroscienziato Uri Hasson, ha prima confrontato quanto bene GPT-2 – un “fratellino” di GPT-3 – e gli esseri umani potessero prevedere la parola successiva in una storia tratta dal podcast “This American Life”: persone e l’IA prevedeva esattamente la stessa parola quasi il 50% delle volte.

I ricercatori hanno registrato l’attivita cerebrale dei volontari mentre ascoltavano la storia. La migliore spiegazione per i modelli di attivazione che hanno osservato era che il cervello delle persone, come GPT-2, non utilizzava solo una o due parole precedenti quando faceva previsioni, ma faceva affidamento sul contesto accumulato fino a 100 parole precedenti. Complessivamente, gli autori concludono: “La nostra scoperta di segnali neurali predittivi spontanei quando i partecipanti ascoltano il linguaggio naturale suggerisce che la previsione attiva potrebbe essere alla base dell’apprendimento linguistico permanente degli esseri umani”.

Una possibile preoccupazione e che questi nuovi modelli linguistici di intelligenza artificiale ricevano molti input: GPT-3 e stato addestrato su un’esperienza linguistica equivalente a 20.000 anni umani. Ma uno studio preliminare che non e stato ancora sottoposto a revisione paritaria ha scoperto che GPT-2 puo ancora modellare le previsioni della parola successiva umana e le attivazioni cerebrali anche se addestrato su appena 100 milioni di parole. Questo e ben all’interno della quantita di input linguistico che un bambino medio potrebbe sentire durante i primi 10 anni di vita.

Non stiamo suggerendo che GPT-3 o GPT-2 imparino la lingua esattamente come fanno i bambini. In effetti, questi modelli di intelligenza artificiale non sembrano comprendere molto, se non altro, cio che stanno dicendo, mentre la comprensione e fondamentale per l’uso del linguaggio umano. Tuttavia, cio che questi modelli dimostrano e che uno studente, anche se di silicio, puo imparare la lingua abbastanza bene dalla semplice esposizione da produrre frasi grammaticali perfettamente buone e farlo in un modo che ricorda l’elaborazione del cervello umano.

Ripensare l’apprendimento delle lingue

Per anni, molti linguisti hanno creduto che l’apprendimento della lingua fosse impossibile senza un modello grammaticale integrato. I nuovi modelli di IA dimostrano il contrario. Dimostrano che la capacita di produrre un linguaggio grammaticale puo essere appresa dalla sola esperienza linguistica. Allo stesso modo, suggeriamo che i bambini non abbiano bisogno di una grammatica innata per imparare la lingua.

“I bambini dovrebbero essere visti, non ascoltati” recita un vecchio proverbio, ma gli ultimi modelli linguistici dell’IA suggeriscono che nulla potrebbe essere piu lontano dalla verita. Invece, i bambini hanno bisogno di essere coinvolti il ​​piu possibile nell’andirivieni della conversazione per aiutarli a sviluppare le loro abilita linguistiche. L’esperienza linguistica, non la grammatica, e la chiave per diventare un utente competente della lingua.

RELATED ARTICLES

Most Popular