Il Safe and Secure Frontier AI Model Innovation Act (SB-1047) della California ha scatenato un torrente di titoli e dibattiti sulla “sicurezza” dei grandi modelli di intelligenza artificiale. Tuttavia, i critici temono che un’enfasi eccessiva sulle minacce esistenziali ai futuri modelli di intelligenza artificiale potrebbe limitare seriamente la ricerca e lo sviluppo di applicazioni di intelligenza artificiale più realistiche e non minacciose oggi.
L’SB-1047, presentato dal senatore dello stato Scott Wiener, è avanzato al Senato della California a maggio con un voto di 32-1 e sembra ben posizionato per un voto finale alla Camera dello stato ad agosto. Il testo della legge impone alle aziende che supportano modelli di intelligenza artificiale sufficientemente grandi (attualmente 100 milioni di dollari in costi di formazione e la potenza di calcolo approssimativa coinvolta finora) di implementare procedure e sistemi di test per prevenire e rispondere agli “incidenti di sicurezza”.
La legge propone una definizione giuridica di questi incidenti di sicurezza, concentrandosi sulla definizione di una serie di “danni gravi” che un sistema di intelligenza artificiale può consentire. Ciò include danni che comportano “massicce perdite di vite umane o danni per almeno 500 milioni di dollari”, come “la creazione o l’uso di armi chimiche, biologiche, radiologiche o nucleari” (ciao Skynet?) o “istruzioni precise per eseguire un’azione attacco informatico”.
Il creatore di un modello di intelligenza artificiale non può essere ritenuto responsabile per danni derivanti dalla condivisione di informazioni “disponibili al pubblico” al di fuori del modello – ad esempio, richiedendo a un MBA di riassumere Il ricettario anarchico Forse non lo metterebbe in violazione della legge. Invece, la legge sembra preoccuparsi principalmente dei futuri sistemi di intelligenza artificiale che potrebbero creare “minacce innovative alla sicurezza pubblica”. Più che un semplice essere umano che utilizza l’intelligenza artificiale per generare idee dannose, SB-1047 si concentra sull’idea dell’intelligenza artificiale “impegnata autonomamente in comportamenti diversi dalla richiesta dell’utente” il tutto agendo “con supervisione, intervento o monitoraggio umano limitato”.
Per prevenire questa possibilità oltre la fantascienza, chiunque addestri un modello sufficientemente grande deve “implementare rapidamente la capacità di eseguire un arresto completo” e disporre di politiche in atto per determinare quando tale arresto dovrebbe essere eseguito, oltre ad altre precauzioni e test. La legge enfatizza anche le azioni dell’IA che richiederebbero “intenzionalità, imprudenza o grave negligenza” se eseguite da un essere umano, suggerendo un grado di azione che non esiste nel linguaggio attuale dei modelli.
Questi termini nel testo della legge probabilmente riflettono le preoccupazioni particolari del suo redattore originale, Dan Hendricks, co-fondatore del Center for Artificial Intelligence Safety (CAIS). In un articolo pubblicato nel 2023 in Rivista del tempoHendricks sostiene la tesi radicale secondo cui “è probabile che le pressioni evolutive spingano l’intelligenza artificiale ad adottare comportamenti che favoriscono l’autoconservazione”, portando a “un percorso verso la sua sostituzione come specie dominante sulla Terra”.
Se Hendricks ha ragione, una legislazione come quella SB-1047 sembra una precauzione logica – anzi, potrebbe non andare oltre. I sostenitori della legge, tra cui Geoffrey Hinton e Yoshua Bengio, concordano con l’affermazione di Hendricks secondo cui la legge è un passo necessario per prevenire danni potenzialmente catastrofici causati dai sistemi avanzati di intelligenza artificiale.
“I sistemi di intelligenza artificiale che superano un certo livello di capacità potrebbero comportare rischi significativi per le democrazie e la sicurezza pubblica”, ha scritto Bengio nel suo sostegno alla legge. “Pertanto, devono essere adeguatamente testati e sottoposti ad adeguate procedure di sicurezza. Questo disegno di legge fornisce un approccio pratico per raggiungere questo obiettivo e rappresenta un passo importante verso i requisiti che ho raccomandato ai legislatori.”
Tuttavia, i critici sostengono che la politica relativa all’intelligenza artificiale non dovrebbe essere guidata da paure esagerate riguardo ai sistemi futuri che assomigliano più alla fantascienza che alla tecnologia attuale. “SB-1047 è stato originariamente scritto da gruppi no-profit che credono nella fine del mondo da parte di macchine senzienti, come il Dan Hendricks Center for AI Safety”, ha affermato Daniel Jeffries, una voce di spicco nella comunità dell’IA. Non possiamo partire da questa premessa e stabilire una legge sulla sicurezza sana e ragionevole”.
“Se qui vediamo un comportamento di accumulo di potere, non è il comportamento dei sistemi di intelligenza artificiale, ma il comportamento dei pessimisti dell’intelligenza artificiale”, ha aggiunto Nirit Weiss Platt, un esperto di politica tecnologica. “Con le loro paure fantastiche, stanno cercando di introdurre una legislazione ispirata alla fantasia, una legislazione che secondo molti esperti di intelligenza artificiale e sostenitori dell’open source potrebbe distruggere il vantaggio tecnologico della California e degli Stati Uniti.
Come giornalista, non posso fare a meno di sentirmi un po’ ambivalente riguardo a questa legislazione. Da un lato, la sicurezza pubblica è essenziale e abbiamo bisogno di regole che prevengano potenziali abusi da parte dell’IA. D’altra parte, è essenziale che la nostra ricerca sull’intelligenza artificiale avanzata non sia soffocata da paure infondate, ma piuttosto guidata da una comprensione e una regolamentazione adeguate, affinché la Francia e il mondo intero possano beneficiare dei progressi che questa tecnologia promette.