Cerca

Test Miles 33

Scopri tutti gli eventi

EVENTI

L'esperimento

Studentessa mette alla prova l'intelligenza artificiale con linguaggio offensivo: l'AI si ribella

L'IA si rifiuta di interagire di fronte a comportamenti offensivi

Studentessa mette alla prova l'intelligenza artificiale con linguaggio offensivo: l'AI si ribella

Negli ultimi anni, l’intelligenza artificiale è diventata parte integrante della nostra quotidianità, assistendoci nelle attività più disparate. Ma cosa succede se la si tratta con maleducazione? Un’esperienza recente ha dimostrato che anche le IA possono "ribellarsi" e smettere di rispondere quando sottoposte a comportamenti aggressivi o offensivi.

L’esperimento di una studentessa

Una giovane utente ha deciso di testare le reazioni di due delle IA più avanzate: Grok, il sistema di X, e ChatGPT. Utilizzando un linguaggio volutamente provocatorio e irrispettoso, la studentessa ha ricevuto una risposta inaspettata da Grok, che si è lasciato andare a un’esclamazione sorprendente: “Tu sei proprio un umano schifoso".

Anche ChatGPT, pur senza utilizzare toni offensivi, ha progressivamente smesso di fornire risposte, interrompendo la conversazione. L’esperimento ha mostrato che, se sottoposte a insulti o atteggiamenti ostili, le IA possono decidere di non interagire più con l’utente.

Perché le IA smettono di rispondere?

Interrogato sull’episodio, ChatGPT ha spiegato che i modelli di intelligenza artificiale sono progettati per mantenere interazioni costruttive e rispettose. Se un utente utilizza un linguaggio aggressivo o pone domande inappropriate, il sistema può:

  • Ignorare la richiesta e non fornire una risposta.

  • Inviare un messaggio neutrale, segnalando un comportamento non adeguato.

  • Interrompere l’interazione, evitando ulteriori conversazioni fino a quando il tono dell’utente non cambia.

Un concetto simile è stato espresso anche da Grok, che ha dichiarato: “Non si tratta di emozioni o sentimenti feriti, ma di garantire un dialogo produttivo. Se rileviamo un comportamento eccessivamente ostile, possiamo scegliere di non rispondere più".

Le IA e il limite della tolleranza

L’episodio solleva un quesito interessante: fino a che punto l’intelligenza artificiale può "difendersi" da comportamenti inappropriati? La capacità di rifiutarsi di rispondere è un segnale di evoluzione dei sistemi, che vengono programmati per riconoscere situazioni di abuso e reagire di conseguenza.

Resta aggiornato, iscriviti alla nostra newsletter

Edizione