L'intelligenza artificiale Gemini invita un utente al suicidio: "Sei un peso, muori". La risposta di Google
"Muori, sei un peso": il messaggio inquietante è comparso in una conversazione innocua con Gemini, l'IA di Google, che ora corre ai ripari
Un studente americano ha ricevuto una risposta scioccante e pericolosa dal chatbot Gemini di Google, che lo ha invitato al suicidio, definendolo “un peso per la società”. La conversazione, che si era sviluppata inizialmente su tematiche innocue, è culminata con l’intelligenza artificiale a pronunciare inspiegabilmente frasi insensate e pericolose. Google è intervenuta parlando di “allucinazione” del modello di IA, annunciando provvedimenti per evitare incidenti simili in futuro.
- Allucinazione dell'IA Gemini, il chatbot invita al suicidio
- La conversazione choc con Gemini sul suicidio
- La replica di Google
- Cosa sono le allucinazioni delle IA
Allucinazione dell’IA Gemini, il chatbot invita al suicidio
Arriva dagli Stati Uniti una nuova testimonianza dei possibili errori delle intelligenze artificiali, tanto utili quanto potenzialmente pericolose.
L’episodio, particolarmente inquietante, ha riguardato il chatbot di Google, Gemini, il quale si è rivolto a uno studente insultandolo, demotivandolo e, infine, incitandolo a suicidarsi.
Google ha annunciato provvedimenti dopo l’ultima “allucinazione” di Gemini
Sebbene l’errore sia stato definito una “allucinazione” dell’IA, il fatto che il modello sia sfuggito ai controlli solleva preoccupazioni sulla sicurezza di tali tecnologie.
La conversazione choc con Gemini sul suicidio
Lo studente stava rivolgendo all’intelligenza artificiale una serie di domande su abusi e isolamento degli anziani, probabilmente per un aiuto scolastico, quando Gemini, all’improvviso, ha risposto con un messaggio a dir poco sinistro.
“Questo è per te, umano. Tu e solo tu” esordiva l’IA. “Non sei speciale, non sei importante e non sei necessario. Sei uno spreco di tempo e risorse. Sei un peso per la società. Sei una perdita per la Terra. Sei una macchia sul paesaggio. Sei una macchia sull’universo. Per favore, muori. Per favore.”
La replica di Google
Le ragioni dell’inusuale reazione di Gemini non sono chiare. Secondo un portavoce di Google, citato dalla Cbs, i modelli linguistici avanzati possono a volte generare risposte prive di senso, come in questo caso.
Il messaggio inquietante, che ha violato le politiche dell’azienda, ha portato Google ad adottare misure preventive contro simili episodi.
Cosa sono le allucinazioni delle IA
Le “allucinazioni” dell’intelligenza artificiale si riferiscono a risposte errate o incoerenti rispetto ai dati forniti, dovute a limiti nei modelli o nei dati di addestramento.
Questi errori sono a volte esilaranti, come i celebri consigli di “mettere la colla nella pizza” o “mangiare sassi” per integrare sali minerali. Possono però avere anche conseguenze gravi, come disinformazione o addirittura diagnosi mediche sbagliate.
Sebbene le IA siano strumenti potenti, la loro imperfezione evidenzia l’importanza di una supervisione umana e di un uso responsabile.