Nuovi regolamenti sull’intelligenza artificiale, tra punti di forza e criticità
Condividi questo articolo
Su entrambe le sponde dell’Atlantico continuano gli sforzi dei legislatori per creare un quadro normativo che garantisca uno sviluppo sicuro, protetto e trasparente dell’intelligenza artificiale. Tanti i punti di forza, ma anche le perplessità avanzate dagli addetti ai lavori. Facciamo chiarezza
Pubblicato il 01 Ago 2023
Presidente Associazione Italiana esperti in Infrastrutture Critiche
A
Analyst, Hermes Bay
A
Analyst, Hermes Bay
D
Analyst, Hermes Bay
Il 21 luglio 2023 l’amministrazione Biden ha annunciato di aver incontrato i dirigenti di sette aziende leader nel settore tecnologico, fra cui Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI, per raggiungere un accordo su uno sviluppo sicuro, protetto e trasparente dell’intelligenza artificiale (IA).
Tale intesa si fonda su tre capisaldi: sicurezza, protezione e fiducia.
Dal punto di vista della sicurezza, le imprese hanno il dovere di garantire che i loro prodotti siano affidabili prima di essere introdotti nel mercato; per quanto riguarda la protezione, è stata manifestata la necessità di mettere a punto soluzioni che salvaguardino i sistemi da minacce informatiche interne ed esterne, condividendo le best practise e gli standard per proteggere la sicurezza nazionale.
Infine, le aziende hanno il compito di stabilire e mantenere un rapporto di fiducia e trasparenza con i propri utenti, tutelando i loro diritti alla privacy e informandoli nel caso in cui i contenuti audiovisivi a cui sono sottoposti siano originali o alterati dall’IA.
Indice degli argomenti
- Le misure da adottare per la sicurezza dei sistemi IA
- I punti critici ancora da risolvere
- AI Act: gli impatti del nuovo regolamento europeo
- Nuovi regolamenti sull’intelligenza artificiale: le perplessità
- Intelligenza artificiale: serve collaborazione transatlantica
Le misure da adottare per la sicurezza dei sistemi IA
Nello specifico, tra le misure proposte dalle sette multinazionali alla Casa Bianca si rilevano:
- la conduzione di test di sicurezza interna ed esterna, i cosiddetti red-teaming, sui sistemi IA prima del rilascio, affidando parzialmente le verifiche a esperti indipendenti relativamente ai rischi legati alla sicurezza nazionale, quali la capacità di progettare armi di distruzione di massa, le discriminazioni sociali o le minacce cyber;
- una maggiore condivisione delle informazioni sui progressi raggiunti in campo IA, sulle minacce emergenti e sulle rispettive misure di protezione, non solo all’interno del settore IT ma anche con i governi, la società civile e il mondo accademico;
- gli investimenti nella cyber sicurezza e nelle misure contro le minacce interne volte a tutelare la proprietà intellettuale al fine di ridurre il rischio di diffusione non autorizzata;
- l’agevolazione per le segnalazioni da parte di terzi delle vulnerabilità dei sistemi IA, alcuni dei quali continuerebbero a presentare delle inefficienze a seguito dell’esecuzione dei test di sicurezza. Tale misura incentiverebbe la notifica da parte degli utenti attraverso sistemi di bug bounty;
- lo sviluppo e l’implementazione di meccanismi tecnici in grado di avvertire gli utenti laddove i contenuti audiovisivi a cui sono sottoposti siano generati dall’IA. L’obiettivo potrebbe essere perseguito attraverso sistemi di provenienza e/o watermarking e sarebbe fondamentale per stabilire un rapporto di fiducia con il pubblico;
- la comunicazione delle capacità, dei limiti e degli ambiti di utilizzo appropriati e inappropriati per i sistemi IA, attraverso la pubblicazione di report sui nuovi modelli rilasciati, incluse le valutazioni di sicurezza condotte sui prodotti e i rispettivi limiti nelle prestazioni;
- la ricerca sui rischi sociali dei dispositivi IA, al fine di evitare discriminazioni e proteggere la privacy;
- lo sviluppo e la distribuzione dei “sistemi IA di frontiera” per contribuire ad affrontare le sfide moderne della società come l’avanzamento del cambiamento climatico, la lotta al cancro e le minacce in ambito informatico, investendo nella formazione del personale.
I punti critici ancora da risolvere
Tuttavia, come sottolinea Kevin Roose, autore del The New York Times ed esperto del settore tecnologico, le proposte avanzate presenterebbero delle criticità, poiché mancherebbero degli standard comuni sulla conduzione di test di sicurezza e garanzie di imparzialità, in quanto i controlli verrebbero condotti prevalentemente dalle stesse aziende.
WEBINAR
26 Settembre 2023 - 15:00
Come sfruttare l'IA e il cloud per migliorare le applicazioni aziendali? Approfondisci nel webinar!
PaaS
Cloud application
Inizio modulo
Leggi l'informativa sulla privacy
- Acconsento alla comunicazione dei dati a terzi appartenenti ai seguenti settori merceologici: servizi (tra cui ICT/digitali), manifatturiero, commercio, pubblica amministrazione. I dati verranno trattati per finalità di marketing tramite modalità automatizzate e tradizionali di contatto (il tutto come specificato nell’informativa)
Fine modulo
Inoltre, riguardo la segnalazione di vulnerabilità da parte di terzi e lo sviluppo di meccanismi trasparenti, Roose afferma che tali procedure non sarebbero adeguatamente chiare e lascerebbero ampi margini di interpretazione.
Infine, conclude l’autore, non sarebbero presenti meccanismi di controllo che vigilino sull’adempimento degli impegni, molti dei quali sarebbero già stati adottati nel settore.
Biden sembra voler prendere le redini del controllo sul tema, anche rispetto all’Europa, attraverso meccanismi legislativi e non solo volontari. Questi ultimi sono privi di procedure di controllo e non potranno garantire in alcun modo il rispetto di una deontologia rispetto ai rischi prevedibili.
AI Act: gli impatti del nuovo regolamento europeo
Parallelamente, il 14 giugno 2023 il Parlamento Europeo ha approvato l’AI Act, il quale prevede nuove restrizioni su quelli che sono considerati gli usi più rischiosi di tale tecnologia.
Il documento limiterebbe l’uso di software per il riconoscimento facciale e richiederebbe ai produttori di sistemi IA di divulgare i dati utilizzati per creare le proprie applicazioni.
L’IA generativa dovrebbe soddisfare nuovi requisiti di trasparenza: tra questi, la pubblicazione di sommari sul materiale protetto da diritto d’autore utilizzato per l’implementazione dei sistemi, considerata necessaria dall’industria editoriale ma contestata dagli sviluppatori poiché ritenuta tecnicamente irrealizzabile.
Inoltre, i produttori dovrebbero adottare delle misure di salvaguardia per evitare che vengano generati dei contenuti illegali tramite le loro piattaforme.
Francine Bennett, Direttrice ad interim dell’Ada Lovelace Institute, un’organizzazione londinese che ha spinto per l’introduzione di nuove leggi sull’IA, ha dichiarato che la proposta dell’Unione Europea rappresenta un “importante punto di riferimento”, poiché è stato adottato un approccio basato sul rischio che si concentra sulle applicazioni con il maggior potenziale di danno umano.
Tale metodo includerebbe i casi in cui i sistemi di IA sono utilizzati per gestire infrastrutture critiche, negli apparati legali e nell’accesso ai servizi pubblici, conducendo una valutazione delle minacce prima di mettere in commercio la propria tecnologia.
Allo stesso tempo, la Computer & Communications Industry Association, ha affermato che l’Unione Europea dovrebbe evitare regolamenti che inibiscano l’innovazione. In base a quanto dichiarato da Boniface de Champris, responsabile delle politiche europee del gruppo, la nuova normativa europea dovrebbe affrontare i rischi chiaramente definiti, lasciando al contempo sufficiente flessibilità agli sviluppatori per realizzare applicazioni utili a beneficio di tutti i cittadini.
Nuovi regolamenti sull’intelligenza artificiale: le perplessità
Allo stesso tempo, i rappresentanti del settore tecnologico hanno manifestato le loro perplessità sulle misure legislative comunitarie. Samuel Altman, Amministratore Delegato di OpenAI, negli ultimi mesi ha incontrato almeno 100 legislatori americani e altri responsabili politici in Sud America, Europa, Africa e Asia, tra cui la Presidente della Commissione Europea Ursula von der Leyen, chiedendo una regolamentazione equilibrata e bilanciata dell’IA.
Già nel 2022, OpenAI aveva sostenuto che la legge non avrebbe dovuto considerare i suoi sistemi per scopi generali, tra cui GPT-3 (il precursore di ChatGPT) e il generatore di immagini Dall-E 2, come modelli ad “alto rischio”, poiché li sottoporrebbe a requisiti legali inerenti la trasparenza, la tracciabilità e la supervisione.
Questa posizione è stata condivisa anche da Google e Microsoft, le quali hanno sostenuto che l’onere di rispettare obblighi più stringenti dovrebbe ricadere sulle società che hanno esplicitamente deciso di applicare l’IA a un caso d’uso ad alto rischio, ma non su quelle che costruiscono sistemi per scopi generici.
OpenAI ha avanzato la necessità di prevedere delle eccezioni che permettano alcuni usi dell’IA generativa nei settori dell’istruzione e dell’occupazione, i quali in accordo con l’AI Act dovrebbero essere considerati casi d’uso ad “alto rischio”.
Oltre alle imprese tecnologiche, altre aziende hanno manifestato i propri dubbi sulle possibili limitazioni sull’IA generativa.
In una lettera firmata da più di 150 esponenti di grandi compagnie, come l’Airbus e la Renault, è stato ribadito ai legislatori europei che, con l’attuale versione dell’AI Act, le imprese si troverebbero ad affrontare costi di conformità e rischi di responsabilità sproporzionati.
Tale regolamentazione potrebbe portare realtà altamente innovative a trasferire le loro attività all’estero e gli investitori a ritirare i loro capitali, comportando un divario di produttività con gli Stati Uniti.
Sebbene sia necessaria una normativa in materia, prosegue la lettera, la volontà di procedere con una rigida logica di conformità sarebbe un approccio inefficace.
Intelligenza artificiale: serve collaborazione transatlantica
In un contesto in cui non sarebbero chiare le minacce dell’IA generativa, la legislazione europea dovrebbe limitarsi a enunciare i principi generali in un approccio basato sul rischio e a creare una collaborazione transatlantica, al fine di stabilire un quadro omogeneo e giuridicamente vincolante.
Nonostante i pareri negativi espressi da alcune aziende, Melinda Rankin, ricercatrice dell’Università del Queensland e Direttore Associato di KPMG Australia, ha messo in evidenza come l’AI Act rappresenti il provvedimento più completo al mondo in materia di regolamentazione dell’IA. Tra le altre misure, il progetto di legge mira a introdurre tre categorie di rischio: rischio inaccettabile, alto rischio e minimo. Per quanto riguarda i primi, essi sono vietati come quei sistemi impiegati per calcolare un punteggio sociale.
I sistemi cd. ad alto rischio devono attenersi a particolari obblighi legali e a un modello che sia trasparente, equo e imparziale, soddisfacendo standard di responsabilità in termini di formazione e operatività.
Infine, i modelli considerati non rischiosi o a rischio minimo, come quelli utilizzati nei videogiochi, non prevedono restrizioni.
Piuttosto che limitare l’innovazione, conclude la Rankin, tale processo di categorizzazione del rischio fornirebbe alle aziende e ai consumatori delle regole chiare su ciò che è considerato attendibile, responsabile e affidabile dell’IA, in particolare in un mondo che sta diventando meno fiducioso nei confronti della tecnologia.
WHITEPAPER
Certificazioni GDPR: tutti i vantaggi per le organizzazioni che vi aderiscono
Contract Management
Privacy/Compliance
Inizio modulo
Leggi l'informativa sulla privacy
- Acconsento alla comunicazione dei dati a terzi appartenenti ai seguenti settori merceologici: servizi (tra cui ICT/digitali), manifatturiero, commercio, pubblica amministrazione. I dati verranno trattati per finalità di marketing tramite modalità automatizzate e tradizionali di contatto (il tutto come specificato nell’informativa)
Fine modulo
@RIPRODUZIONE RISERVATA
Valuta la qualità di questo articolo