L’agenzia governativa statunitense (NIST), conosciuta per il suo ruolo di spicco nella sviluppo e nella promozione di standard tecnici, misure e linee guida per migliorare la sicurezza nei settori scientifici e tecnologici, ha prodotto il documento “Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence” (NIST AI 600-1) – complementare all’AI Risk Management Framework (RMF) – nel quale si definiscono i rischi dall’uso dell’AI generativa.
Il testo, ancora provvisorio, introduce anche una prima definizione dell’AI generativa – rinominandola “GAI” – come “la classe di modelli di AI che emulano la struttura e le caratteristiche dei dati in ingresso per generare contenuti sintetici derivati. Questi possono includere immagini, video, audio, testi e altri contenuti digitali”.
La NIST svolge ruoli chiave in diversi settori, tra cui la standardizzazione, la ricerca, lo sviluppo e la sicurezza informatica, soffermandosi proprio su quest’ultima – in particolare facendo riferimento ai rischi – nel documento in fase di scrittura.
Quest’ultimo dapprima chiarisce che da una parte, alcuni dei rischi legati all’IA generative non sono ancora noti e quindi difficili da valutare, considerata la loro incertezza sulla portata, le loro strutture e potenzialità.
Dall’altra, alcuni di essi sono ampiamente conosciuti ma difficili da stimare, tenuto conto della gamma di soggetti interessati, di usi, input e output delle GAI.
Successivamente, il documento si spinge ad analizzare i dodici rischi individuati, tra cui informazioni chimiche, biologiche, radiologiche o nucleari (CBRN), confabulazione, raccomandazioni pericolose o violente, privacy dei dati, configurazione ambientale e umana-AI.
L’IA Generale Artificiale (GAI) potrebbe facilitare sempre più l’accesso alle informazioni relative ai pericoli CBRN. Attualmente, le informazioni CBRN sono già accessibili pubblicamente ma l’uso di chatbot potrebbe facilitarne l’analisi o la sintesi per non esperti.
Anche se gli attuali LLM non hanno la capacità di pianificare un attacco con armi biologiche, nel documento si legge che alcuni degli strumenti AI specializzati potrebbero essere in grado, invece, di generare nuove strutture biochimiche, destando preoccupazioni per la sicurezza.
Il testo provvisorio, poi, si sofferma anche sulla cd. “configurazione umano-AI”, secondo cui gli esseri umani apportano le loro competenze specifiche negli scenari, ma non necessariamente hanno una conoscenza dettagliata dei sistemi di AI e del loro funzionamento.
Dunque, l’integrazione dei sistemi GAI può comportare rischi variabili di configurazioni errate e di interazioni scadenti, poiché gli esseri umani potrebbero essere prevenuti nelle loro percezioni sulla qualità del contenuto generato, ad esempio.
Al contrario, a causa della complessità e della crescente affidabilità della tecnologia GAI, altri invece potrebbero condizionarsi e fare affidamento sui sistemi GAI. Tale fenomeno è noto come “bias dell’automazione”, che si riferisce a un eccessivo deferimento ai sistemi AI.
Come parte del trattamento del rischio della configurazione umano-IA, il NIST AI 600-1 raccomanda di avere processi e procedure che affrontino “l’implicazione emotiva dell’utente con le funzioni GAI”, riferendosi alla tendenza degli esseri umani a sviluppare un attaccamento emotivo a un’applicazione di intelligenza artificiale.
Ciò si manifesta con “Replika”, un chatbot soprannominato dal suo sviluppatore come un “Amico AI” che è “sempre qui per ascoltare e parlare”, in grado di generare un’incidenza psicologica sull’essere umano.
Con l’avanzare delle applicazioni GenAI sempre più potenti computazionalmente, il rischio di un coinvolgimento emotivo tende ad aumentare, legandosi al fenomeno del “power of augmentation”, descritto da Eran Kahana, membro del comitato consultivo della Stanford Artificial Intelligence Law Society.
Kahana, basandosi sulla tesi del Professore Fogg di Stanford, il quale con il termine “Captologia” intendeva descrivere un ecosistema in cui i sistemi informatici interattivi sono progettati per cambiare le attitudini e i comportamenti delle persone.
La Captologia di Fogg è rappresentata da un “triade funzionale” in cui i computer fungono da strumento, da media e da attori sociali. Nel loro ruolo di “strumento”, i computer aiutano ad aumentare la capacità di raggiungere e di persuadere l’uomo in modo efficiente; come “media” offrono un’esperienza agli individui, e come “attori sociali” guidano la persuasione creando relazioni attraverso ricompense e feedback positivi.
Parallelamente ai rischi di condizione psicologica, i sistemi di AI generativa presentano rischi anche per la privacy, poiché possono involontariamente rivelare, generare o dedurre informazioni sensibili sulle persone, come dati biometrici, sanitari, di localizzazione o altre informazioni personali identificative (PII).
Ad esempio, durante attacchi avversari, i Modelli linguistici di grandi dimensioni (LLM) hanno rivelato informazioni private o sensibili che erano presenti nei loro dati di addestramento, un fenomeno noto come “memorizzazione dei dati”.
Inoltre, molti sviluppatori di modelli non divulgheranno le fonti di dati specifiche utilizzate per addestrare i modelli, rendendo difficile per i consumatori verificare se siano stati utilizzati dati sensibili per l’addestramento, comportando rischi di non conformità alle normative sulla privacy.
Questi modelli possono dedurre accuratamente informazioni personali non presenti nei dati di addestramento o non divulgate dagli utenti, mettendo insieme dati provenienti da diverse fonti.
Dopo aver introdotto e descritto tali rischi, la bozza identifica una serie di azioni per governare, mappare, e gestire gli stessi.
Tra le misure auspicate c’è anche la ricerca di un feedback pubblico strutturato per valutare se i sistemi di AI generativa funzionano come previsto, includendo metodi di coinvolgimento partecipativo per sollecitare risposte dai gruppi della società civile, delle comunità interessate e degli utenti.
Il rapporto fornisce anche una panoramica degli approcci tecnici alla “trasparenza del contenuto digitale”, ovvero il processo di documentazione e accesso alle informazioni sull’origine e sulla storia del contenuto digitale e adotta un approccio a quattro punti per gestire e ridurre i rischi del contenuto sintetico, tra cui:
Alcuni degli standard, strumenti, metodi e pratiche esaminati includono l’autenticazione del contenuto e il tracciamento della provenienza, come il watermarking digitale e la registrazione dei metadati, così come misure tecniche di mitigazione per il CSAM e il NCII sintetici, come il filtraggio dei dati di addestramento e l’hashing crittografico.
Helen Toner, direttore della strategia e dei finanziamenti per la ricerca fondamentale presso il Centro per la Sicurezza e la Tecnologia Emergenti (CSET) dell’Università di Georgetown, ritiene che la specificità tecnica di questo rapporto sia utile per chiarire e riunire una serie caotica e dispersa di discussioni sul contenuto sintetico. “NIST si concentra nell’individuare opportunità per ulteriori ricerche e sviluppi – un punto di forza del rapporto data l’incertezza attorno a queste tecnologie IA”, secondo Toner.
Il documento prodotto dall’agenzia governativa statunitense NIST rappresenta un importante contributo nell’identificazione e nella gestione dei rischi derivanti dall’uso dell’IA generativa, delineando i rischi unici o aggravati da questo tipo di intelligenza artificiale.
La specificità tecnica del rapporto fornisce una base per ulteriori ricerche e sviluppi in un contesto in cui le tecnologie dell’IA sono ancora in evoluzione e le sfide sono molteplici.
Infine, l’invito alla partecipazione pubblica strutturata per valutare l’efficacia dei sistemi di Gen-AI rivela un impegno verso una governance inclusiva e trasparente, volta ad affrontare le complessità e le incertezze di questo campo emergente.