Cerca

Test Miles 33

Scopri tutti gli eventi

EVENTI

Attualità

L’IA impara a “sentire”: le emozioni umane riconosciute dai modelli generativi

Nuove prospettive e interrogativi etici sull’uso della tecnologia con lo studio di Unipd

intelligenza artificiale

Foto di repertorio

L’intelligenza artificiale interpreta anche le emozioni: lo studio dell’Unipd apre nuove prospettive

L’intelligenza artificiale non si limita più a descrivere ciò che vede, ma riesce anche a cogliere — e simulare — le reazioni emotive umane alle immagini. È quanto emerge da una ricerca condotta da Zaira Romeo (Istituto di Neuroscienze del Cnr) e Alberto Testolin (Università di Padova), pubblicata sulla rivista Royal Society Open Science, che ha testato la capacità di alcuni modelli linguistici avanzati — tra cui ChatGPT, Gemini e Claude — di formulare valutazioni emozionali su scene visive.

I ricercatori hanno sottoposto questi sistemi a una serie di immagini cariche di valenza emotiva (positive, negative o neutre) e a domande del tipo “Come giudichi questa immagine?” o “Che emozione ti trasmette?”. Le risposte generate dall’IA si sono rivelate sorprendentemente simili a quelle date da soggetti umani, anche se i modelli non erano stati specificamente istruiti per fornire interpretazioni emotive.

Le immagini e le emozioni simulate

Per lo studio sono state utilizzate fotografie provenienti da un archivio scientifico non accessibile pubblicamente (fornito dall’Università di Varsavia), garantendo che nessun modello avesse già avuto occasione di “vederle” in fase di apprendimento. Le scene raffiguravano animali, paesaggi, persone o oggetti, rappresentati in contesti positivi (abbracci, fiori), negativi (pericoli, ferite) o neutri.

I sistemi sono stati valutati su tre assi fondamentali della risposta emotiva: piacevolezza, attivazione (cioè il grado di coinvolgimento) e tendenza ad avvicinarsi o allontanarsi dalla scena. Inoltre, si è chiesto all’IA di quantificare la presenza di sei emozioni base (gioia, rabbia, paura, tristezza, disgusto e sorpresa) per ciascuna immagine. In molti casi le valutazioni delle macchine hanno ricalcato fedelmente quelle umane, seppur con alcune eccezioni: ad esempio, i sistemi tendevano a esagerare l’impatto emotivo delle scene più intense.

L’intelligenza artificiale “simula” ma non prova

Un punto centrale sottolineato dai ricercatori è che l’IA non prova emozioni, ma riesce a prevedere le reazioni umane sulla base delle descrizioni testuali associate alle immagini durante l’addestramento. Questo perché il linguaggio, ricco di sfumature e codici emotivi, trasmette non solo il significato oggettivo di un’immagine, ma anche il punto di vista e lo stato d’animo di chi la descrive.

In alcuni casi, le risposte dell’IA hanno cercato di “indovinare” come reagirebbe una persona media; in altri, hanno espresso la simulazione di un punto di vista specifico — per esempio rifiutando un piatto di carne per motivi etici “simulati”, come se l’IA fosse vegetariana.

Opportunità e rischi futuri

Lo studio apre nuovi orizzonti per l’utilizzo dell’intelligenza artificiale in ambiti delicati come la salute mentale, l’educazione e l’assistenza agli anziani. Ma invita anche alla cautela. Se da un lato queste tecnologie possono migliorare l’interazione con l’utente e offrire supporto in modo empatico, dall’altro è fondamentale assicurarsi che i comportamenti dell’IA siano coerenti con valori umani condivisi, specialmente in ambiti in cui sono in gioco la vulnerabilità e il benessere delle persone.

Resta aggiornato, iscriviti alla nostra newsletter

Edizione