

L'IA non capisce davvero cos'è un fiore per gli esseri umani
Si basa solo su parole e immagini, non può annusarlo e toccarlo
I sistemi basati sull'Intelligenza Artificiale come ChatGpt non riescono a capire davvero cos'è un fiore e cosa rappresenta per un essere umano: il problema è che tutto ciò che sanno arriva da parole e in alcuni casi immagini, e queste informazioni non possono compensare l'assenza di un esperienza diretta, della possibilità di annusarlo, toccarlo o passeggiare in un campo pieno di fiori. Lo afferma lo studio pubblicato sulla rivista Nature Human Behaviour e guidato dall'Università Statale dell'Ohio, che ha messo a confronto come IA e umani vedono il mondo che ci circonda. I ricercatori guidati da Qihui Xu e Yingying Peng sono partiti da oltre 4.400 parole, da 'fiore' a 'umoristico', e hanno messo alla prova due famiglie di sistemi all'avanguardia: ChatGpt 3.5 e 4 di OpenAI e i modelli linguistici Palm e Gemini di Google. Umani e IA sono stati testati su due parametri: il primo chiede di valutare quanto un concetto sia facile da visualizzare mentalmente e quanto sia emotivamente stimolante, mentre il secondo valuta quanto stretto sia il legame tra un concetto e le informazioni che è possibile ottenere su di esso tramite i sensi o tramite azioni. L'obiettivo era vedere quanto IA e umani siano allineati nelle loro valutazioni. I modelli linguistici hanno ottenuto ottimi risultati nel rappresentare parole che non avevano alcun collegamento con i sensi, ma quando si è trattato di parole strettamente legate a quello che vediamo, gustiamo o annusiamo hanno invece fallito. "Ottengono ciò che sanno assimilando enormi quantità di testo - afferma Xu - e tuttavia non riescono a catturare alcuni concetti allo stesso modo degli umani. L'esperienza umana - aggiunge - è molto più ricca di quanto le parole possano contenere da sole". Gli autori dello studio sottolineano, però, che i modelli linguistici sono in continuo miglioramento ed è quindi probabile che faranno progressi anche in questo campo, soprattutto se verranno potenziati con dati provenienti da sensori esterni che gli permetteranno di avere un esperienza diretta degli oggetti.
P.Ponce--ECdLR