Chi deve controllare l’intelligenza artificiale? L’alternativa del modello open source
2023-10-25 22:2:15 Author: www.cybersecurity360.it(查看原文) 阅读量:3 收藏

GOVERNANCE DELL'IA

L’adozione del modello open source nella governance della tecnologia basata sull’intelligenza artificiale potrebbe migliorare la fiducia della società nei confronti di questi strumenti. Rappresenta, inoltre, il compromesso più pragmatico ed efficace per garantire una regolamentazione adeguata del settore. Il punto

Pubblicato il 25 Ott 2023

Il modello open source potrebbe essere una valida alternativa per la governance della tecnologia basata sull’intelligenza artificiale.

Attualmente, infatti, le regole per i potenti sistemi di intelligenza artificiale sono stabilite da un piccolo gruppo di addetti ai lavori che decidono il comportamento dei loro modelli in base a una combinazione di etica personale, incentivi commerciali e pressioni esterne.

Come riportato dal New York Times, attualmente, non ci sarebbero controlli sulle linee guide applicate a questi modelli e non c’è modo per gli utenti comuni di intervenire.

Per questo motivo, nella Silicon Valley, al momento, uno dei dibattiti più accesi riguarda chi dovrebbe controllare lo sviluppo dell’IA e come. Secondo la testata giornalistica americana, l’apertura della governance di questa tecnologia potrebbe migliorare la fiducia della società nei confronti di questi strumenti e dare ai regolatori maggiore convinzione nel fatto che questi sono guidati competentemente.

Inoltre, potrebbe anche prevenire alcuni dei problemi che sono sorti in seguito all’ascesa dei social media verificatasi negli ultimi anni, la quale ha visto un numero ristretto di aziende della Silicon Valley controllare vaste aree del panorama online e dei social media.

Così l’intelligenza artificiale sta rivoluzionando la cyber security

Chatbot Claude: l’applicazione del modello open source all’IA

Un nuovo esperimento di Anthropic, il produttore del chatbot Claude, offre una prospettiva innovativa sull’intelligenza artificiale: l’esperimento, noto come “Collective Constitutional A.I.”, che si basa sul precedente lavoro di Anthropic sull’IA costituzionale, un modo di addestrare sistemi di intelligenza artificiale linguistica di grandi dimensioni che si basano su di un insieme di principi scritti, ha previsto la richiesta a mille utenti volontari di scrivere le regole che dovrebbero governare la loro chatbot.

Contact Center performante grazie all'AI: Istruzioni pratiche, tool e servizi in una guida dedicata

Natural Language Processing (NLP)

L’obiettivo è quello di fornire a un chatbot istruzioni chiare su come gestire le richieste sensibili, quali argomenti considerare off-limits e come agire in linea con i valori etici umani.

In poche parole, l’IA costituzionale funziona utilizzando un insieme di regole scritte (una “costituzione”) per controllare il comportamento di un modello di intelligenza artificiale. La prima versione della costituzione di Claude prendeva in prestito regole da altri documenti autorevoli, tra cui la Dichiarazione universale dei diritti umani delle Nazioni Unite e i termini di servizio di Apple.

Questo approccio ha reso Claude ben strutturato rispetto ad altri chatbot ma lasciando comunque ad Anthropic il compito di decidere quali regole adottare. Tale autorità è stata criticata da diversi dipendenti all’interno dell’azienda.

I risultati incoraggianti dei Large Language Model (LLM)

Tuttavia, quello di Claude non è l’unico esempio di intelligenza artificiale a seguire un modello open source.

A tal proposito, i Large Language Model (LLM) rappresentano uno dei campi in cui il formato open source ha ottenuto risultati più incoraggianti. Nel corso del 2023 sono stati creati diversi software di questo genere, come LLaMa di Meta, Alpaca dell’Università di Stanford e il modello linguistico StableLM.

Oggi, anche Bill Gates ammette che “l’intelligenza artificiale basata su open source è la cosa più grande da quando è stato introdotto all’idea di un’interfaccia utente grafica (GUI) nel 1980”.

I vantaggi del modello open source applicato all’IA

L’open source presenta alcuni vantaggi cruciali, come l’accelerazione dello sviluppo e dell’implementazione del software, in quanto non vi sono ostacoli all’accesso al codice né per le parti interessate né per gli appassionati de settore.

Infatti, un altro aspetto fondamentale è la revisione e l’accettazione da parte della comunità, che consente agli esperti di criticare e contribuire a migliorare un progetto senza alcuna barriera aziendale.

Ma il vantaggio più grande, secondo diverse fonti, è la trasparenza nelle fasi di sviluppo e implementazione.

AI Act: così l’UE “apre” all’open source nell’intelligenza artificiale

Proprio questo tema, infatti, ha assunto una posizione centrale nel discorso sulla regolamentazione dell’intelligenza artificiale. L’Unione Europea, tramite la sua proposta di normativa chiamato AI Act, cerca di spingere sull’apertura all’open source per questa tecnologia.

La grande differenza, con chi sostiene la sola necessità della creazione di un modello basato sul ruolo centrale della community, è che l’UE propone anche un controllo istituzionale.

Secondo Bruxelles, lo stato attuale della IA, in particolare quella generativa, pone dei rischi inaccettabili alla stabilità e alla sicurezza degli utenti e degli enti pubblici e privati.

Le regole che potrebbero essere introdotte da questa normativa, una volta passata la fase di negoziazione con gli Stati, stabilirebbero obblighi per fornitori e utenti a seconda del livello di rischio dell’intelligenza artificiale.

Questa prospettiva europea, conformemente a quanto dichiarato dalla Commissione, permetterebbe, da un lato, un controllo istituzionale volto a garantire l’utilizzo etico dell’intelligenza artificiale, almeno secondo i criteri europei, assicurando nel contempo la tutela dei diritti umani e della sicurezza, nonché una mitigazione degli impatti sociali ed economici derivanti da questa tecnologia.

Dall’altro lato, potrebbe comportare un freno all’innovazione, soprattutto per le realtà più piccole, e conseguenze indesiderate legate a una eccessiva burocratizzazione di un settore estremamente dinamico.

Il punto di vista delle principali aziende tecnologiche

Preoccupate per le possibili implicazioni di normative eccessivamente stringenti a livello europeo e, di conseguenza, su scala globale, le principali aziende tecnologiche della Silicon Valley, sotto la guida del CEO di OpenAI, Sam Altman, stanno avanzando la loro proposta di regolamentazione.

Negli Stati Uniti, colossi come Google, Microsoft, IBM e OpenAI hanno sollecitato i legislatori a istituire una supervisione sull’intelligenza artificiale, ritenuta essenziale per garantire la sicurezza e la competitività in confronto con la Cina.

Nel frattempo, nell’Unione Europea, i rappresentanti di tali aziende stanno opprimendo misure che, secondo il loro punto di vista, potrebbero eccessivamente limitare lo sviluppo di questo nuovo settore tecnologico.

Secondo numerosi funzionari statunitensi coinvolti nella progettazione della prossima legge sull’intelligenza artificiale, la richiesta di una supervisione nazionale da parte delle Big Tech è stata un modo per creare una posizione favorevole al fine di influenzare l’orientamento della legislazione europea.

Attualmente, l’AI Act europeo prevede una serie di sanzioni per le imprese che dovessero violare le norme. La bozza in discussione propone multe fino al 6% del fatturato annuo dell’azienda e la sospensione dell’operatività dei loro prodotti nell’Unione Europea.

Questa legislazione riguarda un settore che, secondo le previsioni, rappresenterà più di 1,3 trilioni di dollari entro un decennio, di cui l’UE costituirà tra il 20% e il 25%.

Conclusioni

L’attuale situazione sottolinea in maniera inequivocabile l’urgente necessità di una regolamentazione per il settore dell’intelligenza artificiale, una richiesta avvertita sia dalla sfera pubblica che da quella privata, soprattutto dalle imprese statunitensi. Tuttavia, va notato che le sfide sono molteplici e che nessuna delle soluzioni precedentemente avanzate ha riscosso un consenso universale.

In questa complessa situazione, il settore pubblico e privato americano sta esercitando pressione sull’Unione Europea, già fortemente impegnata nella formulazione di regolamenti per questa tecnologia, per evitare che eventuali normative risultino toppo rigide. In tal senso, molte delle Big Tech americane hanno espresso la loro opinione, secondo la quale l’UE dovrebbe promuovere l’adozione di tecnologie sicure e soprattutto profittevoli, senza eccessive implicazioni o normative che possano prevedere un’esclusione reciproca tra i due obiettivi.

La proposta di utilizzare modelli open source per il controllo dell’intelligenza artificiale sembra attualmente rappresentare il compromesso più pragmatico ed efficace per garantire una regolamentazione adeguata del settore.

Semplifica e accelera il Customer Journey nel Retail con l’AI

@RIPRODUZIONE RISERVATA


文章来源: https://www.cybersecurity360.it/legal/chi-deve-controllare-lintelligenza-artificiale-lalternativa-del-modello-open-source/
如有侵权请联系:admin#unsafe.sh