L’intelligenza dell’anatra

Se cammina come un’anatra e fa il verso di un’anatra, allora deve comprendere come un’anatra.
Qualche tempo fa ho avuto un piccolo confronto con un utente su YouTube a proposito dell’uso del termine “comprendere” riferito ad un Large Language Model (LLM). Premetto che sono tendenzialmente d’accordo con l’utente, il quale sosteneva che in realtà un LLM non comprende alcunché perché è una macchina. Ho pure scritto un articolo sul tipo di intelligenza delle LLM che supporta la stessa idea. Però credo che il problema del considerare qualcosa intelligente o meno, capace di comprendere o meno, non si esaurisca analizzando la cosa soltanto a livello tecnico. In altre parole, un qualche dubbio rimane, non tanto sulla capacità di comprensione della macchina, quanto sulla nostra capacità di “comprendere il comprensibile”.
Comprendere o non comprendere?
Credo che l’affermare che una macchina non sia in grado di comprendere apre due questioni:
una questione filosofica sul significato di comprendere e di come facciamo a stabilire se qualcuno o qualcosa comprenda o meno.
una questione linguistica sull’utilizzo esteso del termine “comprendere”.
Non fraintendetemi, non sto cercando di affermare che una macchina sia in grado di comprendere come lo intendiamo comunemente. Sto piuttosto invitando a riflettere su come noi usiamo il termine “comprendere” probabilmente… senza comprenderlo a fondo.
Ma andiamo per ordine.
Questione filosofica del comprendere
Iniziamo col chiederci come facciamo a stabilire se una macchina comprenda o meno (o, se vogliamo, se sia intelligente o meno).
Nell’articolo citato prima, ho fatto riferimento a Forrest Gump e al suo motto: “Stupido è chi lo stupido fa”. La prima volta che ho sentito questa affermazione, non l’ho presa molto sul serio. Ho pensato che si trattasse di una sorta di gioco di parole. Poi ci ho riflettuto un po’ e l’ho trovata più profonda di quanto mi fosse apparsa inizialmente: in effetti, noi riteniamo una persona stupida solo se compie azioni o dice cose che riteniamo stupide. In altre parole, giudichiamo la sua stupidità in base al suo comportamento.
In programmazione esiste un qualcosa di analogo: il concetto di duck typing. Si tratta di un meccanismo che attribuisce un tipo agli oggetti in base alla loro interfaccia più che alla sua classe base. Il nome “duck typing” si basa sull’asserzione: “Se cammina come un’anatra e fa il verso di un’anatra, allora deve essere un’anatra”. In altre parole, se un oggetto ha tutte le caratteristiche che mi servono per un certo scopo, allora lo considero del tipo giusto per quello scopo. Insomma, il comportamento o l’aspetto che osserviamo è fondamentale per stabilire la natura di qualcosa.
Il test di Turing si basa sullo stesso principio: se una macchina si comporta in maniera intelligente, al punto che non riusciamo a distinguerla da un essere umano, allora quella macchina è intelligente. Quindi se si comporta come se avesse compreso le nostre richieste, allora è in grado di comprendere.
Il test di Turing lo applichiamo quotidianamente anche agli esseri umani. Pensateci un attimo: come faccio ad essere sicuro che un essere umano comprenda quello che dico? Se quando chiedo qualcosa a qualcuno questi si comporta come mi aspetto, allora dico che ha compreso.
Il fatto è che non abbiamo altri strumenti per verificare che effettivamente abbia compreso come noi comprendiamo. Non possiamo analizzare i processi che avvengono nei suoi neuroni per stabilire se è vera comprensione o è semplicemente un riflesso automatico. Assumiamo che un essere umano comprenda come comprendiamo noi perché gli attribuiamo le stesse nostre capacità. Non sono un esperto e non so se tutto ciò abbia a che fare con la teoria della mente, ma credo che tutto sommato mi sembra abbastanza… comprensibile. Naturalmente è più difficile fare lo stesso per una macchina o per un altro essere vivente.
Insomma, diciamo che un essere umano comprende allo stesso modo di come comprendiamo noi solo perché ha le nostre stesse caratteristiche psico-fisiche. Non ne abbiamo le prove concrete, ma ci sono buone probabilità che sia così. Non è il caso di scomodare il test della stanza cinese anche per gli esseri umani.
Questione linguistica del comprendere
Veniamo ora al discorso linguistico. Quando diciamo che una macchina è intelligente o comprende non vogliamo necessariamente dire che questa intelligenza o comprensione sia la stessa degli esseri umani. Ricordate il duck typing? Se si comporta come se comprendesse, allora comprende. Ma questo non implica che intendiamo dire che all’interno della macchina si innescano gli stessi meccanismi che si innescano in un essere umano.
Si tratta soltanto di una antropomorfizzazione del comportamento della macchina. Usiamo per la macchina lo stesso termine che useremmo per un essere umano. Lo abbiamo sempre fatto e continuiamo a farlo. Dal punto di vista linguistico, è analogo al dire che un aeroplano vola. In realtà sappiamo tutti che esso non vola come volano gli uccelli: non sbatte le ali. Eppure usiamo lo stesso verbo. Abbiamo esteso il senso originario del verbo volare per includere il movimento dell’aeroplano, ma siamo tutti consapevoli che questo volo è completamente diverso da quello degli uccelli.

Si tratta di un’estensione semantica o neosemia: accade quando una parola già esistente acquisisce un nuovo significato perché viene applicata a un contesto diverso.
Diciamo di navigare sul Web, ma siamo consapevoli di non usare nessuna nave. Quante volte abbiamo migrato dati da una piattaforma ad un’altra, ma mica abbiamo avuto a che fare con stormi di uccelli o mandrie di bisonti. Un computer si iberna anche d’estate, e non è assolutamente un orso né una marmotta.
Molte di queste parole con estensione semantica vengono usate in ambito tecnico. Il motivo è semplice: la lingua non riesce a stare al passo con la velocità delle innovazioni. Invece di coniare parole astruse che possono essere anche difficili da memorizzare, si riutilizzano parole già esistenti con una accezione estesa.
Certo, potremmo utilizzare il termine trasferimento dati, ma vuoi mettere quanto è molto più semplice e poetico dire che i dati migrano. Analogamente, potremmo chiamarla mera elaborazione statistica, ma vuoi mettere quanto è più suggestivo dire che l'AI comprende. Prendiamo l’estensione semantica come una sorta di metafora: aiuta a riportare un concetto nuovo a qualcosa che conosciamo già pur essendo consapevoli che non si identifica con esso. Questa è la bellezza di essere umani.



