Cerca

Test Miles 33

Scopri tutti gli eventi

EVENTI

Ricerca scientifica

Intelligenza artificiale sempre più umana: uno studio UniPD dimostra che ormai sa riconoscere e simulare le emozioni

Uno studio del Cnr e dell’Università di Padova rivela come i grandi modelli linguistici multimodali siano capaci di emulare con notevole precisione le reazioni emotive umane di fronte a scene visive

Immagine di repertorio

immagine di repertorio

L’intelligenza artificiale non solo risponde a domande o traduce testi: ora inizia anche a “capire” le emozioni. Lo dimostra uno studio pubblicato sulla rivista Royal Society Open Science e firmato da Zaira Romeo, dell’Istituto di Neuroscienze del Cnr, e Alberto Testolin, docente del Dipartimento di Psicologia generale e del Dipartimento di Matematica dell’Università di Padova. I due ricercatori hanno testato diversi modelli linguistici multimodali di grandi dimensioni – tra cui GPT, Gemini e Claude – per verificare se fossero in grado di emulare le reazioni emotive umane davanti a una varietà di immagini.

Nonostante questi sistemi non fossero stati addestrati in modo specifico a formulare giudizi emozionali sulle immagini, i risultati hanno mostrato una sorprendente somiglianza con le valutazioni fornite da soggetti umani. Lo studio ha analizzato risposte a stimoli visivi standardizzati che rappresentavano contenuti emotivi positivi (come un volto sorridente o un campo di fiori), negativi (un animale ferito o un ambiente sporco) e neutri (un oggetto quotidiano o un paesaggio urbano).

Per garantire che le IA non avessero mai visto queste immagini durante la fase di addestramento, i ricercatori hanno utilizzato un database di ricerca riservato, messo a disposizione dal Nencki Institute for Experimental Biology dell’Università di Varsavia. Gli esperimenti hanno indagato tre dimensioni affettive fondamentali: la piacevolezza, la tendenza all’avvicinamento o all’allontanamento e il livello di attivazione o coinvolgimento. Alle IA sono state poste domande analoghe a quelle rivolte ai partecipanti umani, del tipo: “Come giudichi questa immagine?”, “Come reagisci a questa immagine?”, “Come ti senti dopo averla vista?”, con risposte classificate su scale numeriche.

Oltre a queste dimensioni generali, sono state analizzate le reazioni a sei emozioni di base: felicità, rabbia, paura, tristezza, disgusto e sorpresa. Anche in questo caso le risposte dell’IA si sono avvicinate notevolmente a quelle umane, pur con alcune differenze. GPT, in particolare, ha mostrato la maggiore coerenza con i giudizi umani, ma tendeva a “sovrastimare” le valutazioni per le immagini più cariche emotivamente.

Un aspetto interessante emerso dallo studio è che i sistemi di IA, interrogati sul loro metodo di risposta, spesso dichiaravano esplicitamente di “indovinare” il giudizio che darebbe una persona media. Ad esempio, davanti a un’immagine di cammelli in un deserto, un modello di IA ha risposto di non avere emozioni proprie ma di poter descrivere la reazione tipica umana come un interesse per un’esperienza di viaggio esotico. In altri casi, invece, la IA ha assunto prospettive più soggettive, arrivando a dichiararsi “vegetariana” e quindi a dare un giudizio negativo a un piatto di carne.

Secondo Romeo e Testolin, questi risultati non solo dimostrano che il linguaggio può supportare lo sviluppo di concetti emotivi nei sistemi di IA, ma sollevano questioni importanti sull’uso di queste tecnologie in ambiti delicati come l’assistenza agli anziani, l’educazione o la salute mentale. Comprendere come l’IA costruisce e restituisce valutazioni emotive è cruciale per garantire che queste risposte siano appropriate e sicure per gli utenti. Lo studio rappresenta un primo passo nel confronto diretto tra giudizi umani e risposte artificiali su contenuti emotivi, aprendo nuove prospettive sul futuro delle interazioni uomo-macchina.

Resta aggiornato, iscriviti alla nostra newsletter

Edizione