I limiti dell’AI (intelligenza artificiale): "ChatGTP" contro Chomsky?
TEHERAN - Un linguista americano, Daniel Everett, ha criticato l'argomentazione di Noam Chomsky sui "principi innati del linguaggio", sottolineando che ChatGPT ha dimostrato come una lingua possa essere appresa senza alcun principio grammaticale.
Alcune riflessioni che mi sono sorte leggendo il
seguente articolo apparso nel “Theran Times del 28.3.2023):
Noam Chomsky sicuramente non ha bisogno della mia difesa!
Qui infatti voglio solo chiarire questa disputa che è ampiamente diffusa e che
emerge da un fraintendimento di fondo di una delle teorie più importanti del
secolo scorso sull'apprendimento delle lingue e sulla natura stessa del linguaggio umano.
Dalla sua prima apparizione nel 1965 “Syntactic Structures”, la teoria di
Chomsky ha subito molti cambiamenti ma un punto è rimasto lo stesso nonostante
tutte le successive revisioni della sua teoria: in poche parole, l'umano (e in
una certa misura gli animali aggiungerei) deve avere una struttura cerebrale
innata focalizzata sull'apprendimento delle lingue. Ciò significa che
l'apprendimento delle lingue differisce da tutti gli altri apprendimenti umani
poiché non può essere spiegato solo dall'input linguistico che il bambino
riceve, quindi il bambino può produrre più elementi e diversi rispetto a quelli
ricevuti. Questo è intuitivo se consideriamo che tutte le lingue sono sistemi
complessi di regole con strutture specifiche, anche se alcune possono essere
molto generali (grammatica universale) tuttavia ogni lingua ha il suo sistema
specifico. In tal caso, conoscendo queste regole è possibile verificare se ad
es. una frase è compatibile con il sistema, un'altra detta è stata
"generata" (in senso matematico) dalle regole, oppure non lo è, cioè
è scorretta.
Se prendiamo in considerazione questo punto fondamentale della teoria di
Chomsky, si potrebbe erroneamente presumere che una macchina possa fare lo
stesso. Ma ecco il punto: gli esseri umani non imparano semplicemente una
lingua: la ricreano. I bambini di ogni generazione nell'imparare a parlare
ricreano una lingua in qualche misura diversa da quella trasmessa loro dalla
generazione precedente. Questo è un fatto ben noto e documentato, il
cambiamento di lingua avviene nella fonetica, nella sintassi, nel lessico e
persino nell'intonazione. Ciò è comprensibile poiché il linguaggio non è come
la matematica un sistema fisso ma è uno strumento di comunicazione e deve
essere continuamente adattato alla situazione mutevole della vita umana
nell'intera storia.
Potremmo persino considerare tutte le lingue come una sorta di "virus
molto benefico" che si replica usando gli umani come strumenti. Questo spiega infatti le continue mutazioni.
Nessuna macchina potrebbe fare una cosa del genere: i computer possono solo elaborare
l'input ma sono sterili e non potrebbero mai dare in output qualcosa di nuovo. Una combinazione del materiale linguistico ricevuto è solo apparentemente qualcosa di nuovo: si può infatti ricostruire l'intero processo eseguito dal computer per raggiungere il risultato e scoprire che si tratta semplicemente di un programma scritto da un essere umano.
Pertanto sono fortemente contrario a questa tesi. La verità è esattamente l'opposto: ChatGTP conferma che l'apprendimento di una lingua si basa su una specifica struttura del cervello umano (e forse in qualche misura questo vale anche per i linguaggi degli animali).
ChatGTP è quindi una prova definitiva che una macchina non può imparare una
lingua: tali programmi per computer possono solo elaborare enormi quantità di
materiale linguistico e produrre testi che sono apparentemente nuovi ma in
realtà sono solo una combinazione degli input ricevuti. Dunque la teoria di Chomsky sulla necessità di una struttura innata negli esseri umani per l'apprendimento delle lingue è confermanta. Ovviamente tuttavia seppur necessaria, questa non è sufficiente.
C'è un'ulteriore prova di questo fatto: i primi programmi di traduzione
automatica usavano fondamentalmente qualcosa di molto simile alla teoria di
Chomsky: scrivevano programmi che contenevano le regole delle lingue date,
aggiungevano il lessico e cercavano di far funzionare il sistema: non c'era
modo di ottenere un risultato valido. Poi qualcuno che si occupava di traduzione
automatica capì che il metodo migliore era quello di alimentare i computer
con una quantità enorme di testi con traduzione corrispondente: qualcosa che i
computer moderni possono confrontare facilmente nel minor tempo possibile e
quindi selezionare ciò che sembra statisticamente più appropriato come traduzione.
Noi interpreti facciamo praticamente la stessa cosa e infatti impariamo
molto dall'esperienza: più testi traduciamo migliori diventano le nostre traduzioni ed interpretazioni. E possiamo essere
sicuri di aver tradotto bene solo se teniamo presente il contesto della comunicazione, cosa che
nessuna macchina può fare: quindi google o ChatGTP sono un aiuto preziosissimo,
ma da soli inaffidabili.
Ciò che appare erroneo o carente nella teoria di Chomsky è quindi soprattutto dovuto alla sua accoglienza "scolastica" da parte di non linguisti. Qui il prof. Everett ha perfettamente ragione: il linguaggio è più che non solo "grammatica" (sintassi, morfologia).
Ma la teoria di Chomsky nella mia comprensione non ha mai inteso ridurre il linguaggio alla grammatica: quando scrisse di un LAD innato, il dispositivo di acquisizione del linguaggio, Chomsky stava semplicemente sottolineando l'importanza di una specifica struttura cerebrale focalizzata sull'apprendimento del linguaggio. Ma questa solo come UNA delle condizioni.
Non senza ironia lo psicologo Jerome Bruner (ricordo in una sua conferenza nell’ università di Costanza) aveva proposto di estendere il concetto aggiungendo un LASS (Language Acquisition Sustaining System) cioè ricordando che è richiesto altro oltre l’ apprendimento grammaticale.
E a fini mnemonici aveva aggiunto la teoria va completata cosí: "A Lad needs a Lass" (un ragazzo deve avere una ragazza) poiché”lad” è appunto sinomino di ragazzo e” lass” di ragazza. Forse oggi non avrebbe piùdetto una cosa simile, ma questa è un’altra storia.
Keine Kommentare:
Kommentar veröffentlichen