L'intelligenza artificiale è pericolosa: senza regole potrebbe "finire molto male", lo dice il papà di ChatGPT
Sam Altman è il cofondatore di OpenAI, azienda alla base di ChatGPT. Altman chiede che la politica americana regolamenti le intelligenze artificiali
L’intelligenza artificiale ha aperto scenari prima inimmaginabili in ogni ambito delle attività umane. Ma alle nuove possibilità si accompagnano nuovi rischi, rischi di portata mai vista prima. L’allarme viene direttamente da Sam Altman, il padre di ChatGPT, in audizione al Senato degli Stati Uniti.
- L'allarme di Sam Altman, Ceo di OpenAI
- Intelligenza artificiale: pericoli senza le regole
- Intelligenza artificiale come le armi nucleari
L’allarme di Sam Altman, Ceo di OpenAI
“Se questa tecnologia andasse male, le cose potrebbero finire molto male: dobbiamo dirlo ad alta voce e lavorare col Governo per evitare che ciò accada”.
Sam Altman non usa mezze misure e chiede che la politica fissi rigidi paletti per regolamentare il lavoro delle aziende che operano nel campo delle intelligenze artificiali.
Intelligenza artificiale: pericoli senza le regole
Altman invoca la creazione di un’agenzia governativa che assegni le licenze per lo sviluppo delle piattaforme di intelligenza artificiale. Compito dell’agenzia dovrebbe essere quello di vigilare sugli standard di sicurezza e ritirare le licenze in caso di violazioni.
Alla politica chiede anche di elaborare standard di sicurezza per evitare che le intelligenze artificiali possano riprodursi o rivoltarsi contro gli umani. Un rischio concreto è poi quello di attacchi hacker dall’esterno.
Sam Altman, però, ha evitato di entrare nello specifico su due temi nevralgici, ovvero la trasparenza in merito all’utilizzo dei dati personali nell’addestramento delle intelligenze artificiali e lo sfruttamento dei contenuti coperti da copyright.
Il Ceo di OpenAI Samuel H. Altman in audizione al Senato degli Stati Uniti.
Al di là di questo si assiste a un capovolgimento nei ruoli fra imprenditori digitali e politici: fino ad alcuni anni fa era il mondo della politica a mettere sotto torchio gli imprenditori.
Si ricordi, ad esempio, la sofferta audizione di Mark Zuckerberg dell’aprile 2018 durante la quale il papà di Meta rispose per cinque ore di seguito alle domande dei senatori. Oggi sono gli imprenditori digitali a chiedere alla politica di limitare il loro lavoro.
Oltre a ChatGPT il grande attore nel campo delle intelligenze artificiali è Google con i suo Bard. Intanto in Italia ChatGPT è tornata disponibile dopo lo stop del Garante.
Intelligenza artificiale come le armi nucleari
La strada indicata dal fondatore di OpenAI è quella già percorsa in merito alla regolamentazione degli armamenti nucleari.
Sam Altman ritiene che gli Stati Uniti dovrebbero “guidare la regolamentazione” dell’AI dettando degli standard di sicurezza da applicare poi in maniera transnazionale, proprio come avvenuto con l’International Atomic Energy Agency per gli armamenti nucleari.
La strada, dice Altman, potrebbe essere quella anche se “sembra un’idea impraticabile”.