ChatGPT mette a rischio i dati personali: bloccato in Italia dal Garante della Privacy, ipotesi maxi multa
Il Garante per la privacy impone lo stop a ChatGpt: da domani in Italia potrebbe non essere più accessibile. Quali le violazioni dei dati riscontrate
Stop a ChatGpt in Italia. Il Garante per la protezione dei dati personali ha disposto il 31 marzo, con effetto immediato, la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma. Cosa succede adesso e quali sono i rischi per la privacy riscontrati dal Garante.
La decisione del Garante
La limitazione imposta dal Garante prevede che l’azienda abbia il tempo di recepire il provvedimento e poi a breve, forse già da domani, ChatGpt, il più noto tra i software di intelligenza artificiale relazionale sarà inaccessibile agli utenti italiani.
ChatGpt è un modello di chatbot AI interattivo addestrato e sviluppato dalla società OpenAI. Se questa non dovesse adeguarsi alle indicazioni del Garante, subirebbe una sanzione milionaria.
La pagina di introduzione di ChatGPT, sviluppata da OpenAI
L’Autorità, come riportato nel comunicato con cui ha reso noto il provvedimento, “ha contestualmente aperto un’istruttoria”.
Lo scorso 20 marzo, ChatGpt aveva infatti subito una perdita di dati “riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento” dice il comunicato.
Quali rischi nel trattamento dei dati
Il Garante privacy, inoltre, sostiene di rilevare la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI.
Più di tutto, ha riscontrato “l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di addestrare gli algoritmi sottesi al funzionamento della piattaforma”.
Come testimoniato dalle verifiche effettuate, sostiene il Garante, “le informazioni fornite da ChatGpt non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto.
L’accesso dei minori alla piattaforma
Da ultimo, nonostante i termini pubblicati da OpenAI prevedano che il servizio sia rivolto ai maggiori di 13 anni, l’Autorità ha riscontrato dei problemi nelle limitazioni per i minorenni all’app.
Il Garante ha evidenziato la totale “assenza di qualsivoglia filtro per la verifica dell’età degli utenti” che sarebbero in questo modo esposti a delle risposte del chatobot “assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza”.