Intelligenza artificiale, una legge per dichiarare le fonti

Due legislatori statunitensi hanno recentemente proposto una legge innovativa volta a regolamentare il mondo dell’intelligenza artificiale. La legge, denominata “AI Foundation Model Transparency Act”, è stata presentata dai Repubblicani Anna Eshoo e Don Beyer e mira a imporre ai creatori di modelli di intelligenza artificiale di rivelare le fonti dei dati di addestramento. Questo passo è essenziale per assicurare che i detentori dei diritti d’autore siano consapevoli dell’utilizzo delle loro informazioni.

L’obiettivo principale della proposta è di indirizzare la Federal Trade Commission (FTC), in collaborazione con il National Institute of Standards and Technology (NIST), a stabilire regole per la trasparenza dei dati di addestramento. Le aziende che sviluppano questi modelli dovranno non solo rivelare le fonti dei dati utilizzati, ma anche descrivere come tali dati vengano conservati durante il processo di inferenza, illustrare le limitazioni o i rischi del modello, e come questo si allinei con il previsto Framework di Gestione dei Rischi AI del NIST e altri eventuali standard federali. Inoltre, sarà necessario fornire dettagli sulla potenza computazionale impiegata per addestrare e gestire il modello.

Un aspetto peculiare della proposta riguarda l’obbligo per gli sviluppatori di AI di segnalare gli sforzi compiuti per testare i modelli in scenari critici, soprattutto per prevenire la diffusione di informazioni inesatte o dannose in ambiti sensibili come la medicina, la biologia, la cybersicurezza, le elezioni, la polizia, le decisioni finanziarie, l’educazione, l’impiego, i servizi pubblici, e la protezione di popolazioni vulnerabili come i bambini. La legge sottolinea inoltre l’importanza della trasparenza dei dati di addestramento in relazione ai diritti d’autore, evidenziando numerosi casi giudiziari contro aziende di AI, tra cui quello degli artisti contro Stability AI, Midjourney e Deviant Art. Quest’ultimo caso, in particolare, è stato in gran parte respinto a ottobre, come riportato da VentureBeat, mentre è ancora pendente un reclamo di Getty Images contro Stability AI.

Il contesto di questa legge si inserisce in un panorama dove l’uso pubblico dei modelli di base di intelligenza artificiale ha portato a innumerevoli casi di informazioni inesatte, imprecise o di parte presentate al pubblico. La proposta legislativa dovrà essere assegnata a un comitato per la discussione, e non è ancora chiaro se ciò avverrà prima dell’inizio della frenetica stagione delle campagne elettorali.La legge di Eshoo e Beyer si affianca all’ordine esecutivo sull’IA dell’amministrazione Biden, volto a stabilire standard di segnalazione per i modelli di AI. Tuttavia, l’ordine esecutivo non ha forza di legge, quindi, se l'”AI Foundation Model Transparency Act” dovesse essere approvata, trasformerebbe i requisiti di trasparenza per i dati di addestramento in una regola federale.