
Amodei (Antrhopic) lancia l’allarme sull’Intelligenza Artificiale: “Dal rischio di perdita di controllo a quello di sorveglianza di massa”
Dario Amodei, fondatore e CEO di Anthropic, ha sollevato forti preoccupazioni sui pericoli legati allo sviluppo dell’intelligenza artificiale, arrivando a mettere in discussione un accordo da 200 milioni di dollari con il Pentagono. Alla base dello scontro, secondo indiscrezioni, non ci sarebbero problemi economici o operativi, ma divergenze etiche: in questo caso è stata l’azienda fornitrice a frenare, evidenziando criticità che l’ente pubblico sembrerebbe aver trascurato.
Il contesto mette in luce una tensione crescente tra due visioni opposte: da un lato lo Stato, orientato a rafforzare la sicurezza nazionale e quindi propenso a utilizzare strumenti tecnologici senza troppe limitazioni; dall’altro una società privata che, consapevole del potenziale trasformativo dell’AI, cerca di imporre regole e vincoli per evitarne usi pericolosi. Secondo Amodei, infatti, queste tecnologie rappresentano una forma di “potere cognitivo” che potrebbe sfuggire al controllo se non adeguatamente regolato.
Nel suo saggio, l’imprenditore descrive l’AI come un sistema capace di produrre lavoro intellettuale su larga scala, con velocità e autonomia crescenti. Non si tratta più di semplici strumenti, ma di infrastrutture in grado di pianificare, apprendere e agire in modo sempre più indipendente.
Da questa visione deriva una classificazione dei rischi. Il primo riguarda la possibile autonomia delle macchine e la conseguente perdita di controllo. Il secondo è l’uso improprio da parte di piccoli gruppi, con particolare attenzione al campo biologico, dove il potenziale distruttivo è elevato. Il terzo concerne i grandi attori, con il pericolo concreto di “sorveglianza di massa” e manipolazione dell’opinione pubblica. Il quarto è di natura economica, legato all’impatto sul lavoro e alla concentrazione della ricchezza. Infine, Amodei immagina scenari più estremi, fino a effetti profondi sulla condizione umana, come “vita umana deformata”.
L’imprenditore avverte inoltre che tecnologie così potenti potrebbero favorire derive autoritarie senza bisogno di eventi eccezionali, ma attraverso una progressiva normalizzazione di strumenti di controllo giustificati da efficienza e sicurezza. Per questo sostiene che l’AI debba contribuire alla difesa, ma senza compromettere i valori democratici.