Mittwoch, 29. März 2023

I limiti dell’AI (intelligenza artificiale):  "ChatGTP" contro Chomsky?

TEHERAN - Un linguista americano, Daniel Everett, ha criticato l'argomentazione di Noam Chomsky sui "principi innati del linguaggio", sottolineando che ChatGPT ha dimostrato come una lingua possa essere appresa senza alcun principio grammaticale.

Alcune riflessioni che mi sono sorte leggendo il seguente articolo apparso nel “Theran Times del 28.3.2023):

https://www.tehrantimes.com/news/483187/Exclusive-Linguist-says-ChatGPT-has-invalidated-Chomsky-s-innate  

 Noam Chomsky sicuramente non ha bisogno della mia difesa!

Qui infatti voglio solo chiarire questa disputa che è ampiamente diffusa e che emerge da un fraintendimento di fondo di una delle teorie più importanti del secolo scorso sull'apprendimento delle lingue e sulla natura stessa del linguaggio umano.

Dalla sua prima apparizione nel 1965 “Syntactic Structures”, la teoria di Chomsky ha subito molti cambiamenti ma un punto è rimasto lo stesso nonostante tutte le successive revisioni della sua teoria: in poche parole, l'umano (e in una certa misura gli animali aggiungerei) deve avere una struttura cerebrale innata focalizzata sull'apprendimento delle lingue. Ciò significa che l'apprendimento delle lingue differisce da tutti gli altri apprendimenti umani poiché non può essere spiegato solo dall'input linguistico che il bambino riceve, quindi il bambino può produrre più elementi e diversi rispetto a quelli ricevuti. Questo è intuitivo se consideriamo che tutte le lingue sono sistemi complessi di regole con strutture specifiche, anche se alcune possono essere molto generali (grammatica universale) tuttavia ogni lingua ha il suo sistema specifico. In tal caso, conoscendo queste regole è possibile verificare se ad es. una frase è compatibile con il sistema, un'altra detta è stata "generata" (in senso matematico) dalle regole, oppure non lo è, cioè è scorretta.

Se prendiamo in considerazione questo punto fondamentale della teoria di Chomsky, si potrebbe erroneamente presumere che una macchina possa fare lo stesso. Ma ecco il punto: gli esseri umani non imparano semplicemente una lingua: la ricreano. I bambini di ogni generazione nell'imparare a parlare ricreano una lingua in qualche misura diversa da quella trasmessa loro dalla generazione precedente. Questo è un fatto ben noto e documentato, il cambiamento di lingua avviene nella fonetica, nella sintassi, nel lessico e persino nell'intonazione. Ciò è comprensibile poiché il linguaggio non è come la matematica un sistema fisso ma è uno strumento di comunicazione e deve essere continuamente adattato alla situazione mutevole della vita umana nell'intera storia.

Potremmo persino considerare tutte le lingue come una sorta di "virus molto benefico" che si replica usando gli umani come strumenti. Questo spiega infatti le continue mutazioni.

Nessuna macchina potrebbe fare una cosa del genere: i computer possono solo elaborare l'input ma sono sterili e non potrebbero mai dare in output qualcosa di nuovo. Una combinazione del materiale linguistico ricevuto è solo apparentemente qualcosa di nuovo: si può infatti ricostruire l'intero processo eseguito dal computer per raggiungere il risultato e scoprire che si tratta semplicemente di un programma scritto da un essere umano.

Pertanto sono fortemente contrario a questa tesi. La verità è esattamente l'opposto:  ChatGTP conferma che l'apprendimento di una lingua si basa su una specifica struttura del cervello umano (e forse in qualche misura questo vale anche per i linguaggi degli animali).

 ChatGTP è quindi una prova definitiva che una macchina non può imparare una lingua: tali programmi per computer possono solo elaborare enormi quantità di materiale linguistico e produrre testi che sono apparentemente nuovi ma in realtà sono solo una combinazione degli input ricevuti. Dunque la teoria di Chomsky sulla necessità di una struttura innata negli esseri umani per l'apprendimento delle lingue è confermanta. Ovviamente tuttavia seppur necessaria, questa non è sufficiente.  

C'è un'ulteriore prova di questo fatto: i primi programmi di traduzione automatica usavano fondamentalmente qualcosa di molto simile alla teoria di Chomsky: scrivevano programmi che contenevano le regole delle lingue date, aggiungevano il lessico e cercavano di far funzionare il sistema: non c'era modo di ottenere un risultato valido. Poi qualcuno che si occupava di traduzione automatica capì che il metodo migliore era quello di alimentare i computer con una quantità enorme di testi con traduzione corrispondente: qualcosa che i computer moderni possono confrontare facilmente nel minor tempo possibile e quindi selezionare ciò che sembra statisticamente più appropriato come traduzione.

Noi interpreti facciamo praticamente la stessa cosa e infatti impariamo molto dall'esperienza: più testi  traduciamo migliori diventano le nostre traduzioni ed interpretazioni. E possiamo essere sicuri di aver tradotto bene solo se teniamo presente il contesto della comunicazione, cosa che nessuna macchina può fare: quindi google o ChatGTP sono un aiuto preziosissimo, ma da soli inaffidabili.

Ciò che appare erroneo o carente nella teoria di Chomsky è quindi soprattutto dovuto alla sua accoglienza "scolastica" da parte di non linguisti. Qui il prof. Everett ha perfettamente ragione: il linguaggio è più che non solo "grammatica" (sintassi, morfologia). 

Ma la teoria di Chomsky nella mia comprensione non ha mai inteso ridurre il linguaggio alla grammatica: quando scrisse di un LAD innato, il dispositivo di acquisizione del linguaggio, Chomsky stava semplicemente sottolineando l'importanza di una specifica struttura cerebrale focalizzata sull'apprendimento del linguaggio. Ma questa solo come UNA delle condizioni.

Non senza ironia lo psicologo Jerome Bruner (ricordo in una sua conferenza nell’ università di Costanza)  aveva proposto di estendere il concetto aggiungendo un LASS (Language Acquisition Sustaining System) cioè ricordando che è richiesto altro oltre l’ apprendimento grammaticale. 

E a fini mnemonici aveva aggiunto la teoria va completata cosí: "A Lad needs a Lass" (un ragazzo deve avere una ragazza) poiché”lad”  è appunto sinomino di ragazzo e” lass” di  ragazza. Forse oggi non avrebbe piùdetto una cosa simile, ma questa è un’altra storia.  

Keine Kommentare:

Kommentar veröffentlichen