ARTIFICIAL INTELLIGENCE ACT: COME IL LEGISLATORE EUROPEO VORREBBE REGOLAMENTARE L’INTELLIGENZA ARTIFICIALE

Cos’è e cosa prevede il c.d. “AI Act

La centralità assunta dal ruolo dell’intelligenza artificiale nella contemporanea attualità, pervadendo innumerevoli aspetti del quotidiano vivere, ha contribuito a stravolgere il processo di transizione digitale del globo intero. L’IA ha, così, sviluppato un’influenza che ha prodotto effetti su una notevole quantità di settori economici e produttivi: basti pensare alle novità apportate in campo industriale, nel comparto sanitario, sino ad approdare in campo finanziario. Siffatta evoluzione, connotata da una inedita celerità, si è fatta però prodromo di una necessità stringente circa un tempestivo intervento regolatore poiché l’innovazione tecnologica, per sua intrinseca indole (connotata dalla piena capacità di decidere ed apprendere), è interessata da inevitabili implicazioni di natura etica.

A tal proposito, a partire dal mese di aprile del 2021, l’Unione Europea ha deciso di implementare un’opera di regolazione del tema tecnologico, operazione che trova nel c.d. “AI Act” il proprio perno.  Quest’ultimo rappresenta una prima cornice normativa avente ad oggetto, appunto, la puntuale disciplina dell’Intelligenza Artificiale e la cui approvazione definitiva dovrebbe avvenire entro il mese di dicembre del corrente anno, per poi entrare in vigore tra il 2024 e il 2025. Il fine della predetta attività normativa dovrebbe essere quello di assicurare il puntuale ed integrale rispetto, da parte dei sistemi operanti mediante l’utilizzo di intelligenza artificiale all’interno del territorio unionale, dei diritti e dei valori fondanti dell’Unione Europea, permettendo di conseguenza l’osservanza di una serie di garanzie quali: il controllo umano, la sicurezza, la privacy, la trasparenza, la non discriminazione e il benessere sociale e ambientale.

Tale atteggiamento del regolatore europeo è dovuto al fatto che, molti dei sistemi ad intelligenza artificiale, hanno sviluppato una capacità di analisi eccezionale e, conseguentemente, sono messi nelle condizioni di prendere delicate decisioni basando le proprie scelte e le proprie azioni sulla base dei dati a loro disposizione. Siffatta qualità, in connubio con la capacità di decisione ed auto apprendimento, rende obbligate alcune valutazioni etiche. Il citato compito (tra l’altro il primo al mondo nel suo genere) risulta, però, caratterizzato da un alto grado di complessità, infatti, le regole poste alla base della normativa sull’uso delle tecnologie devono tanto proteggere la riservatezza e l’incolumità dei cittadini, quanto concedere le possibilità di sperimentazione inerenti all’utilizzo dell’AI: compito di ponderazione degli interessi di non facile gestione.

Allora, allo scopo di bilanciare nel modo più equilibrato possibile i suddetti interessi, il Regolamento europeo sull’Intelligenza Artificiale prevede la suddivisione del rischio inerente all’utilizzo di tale tipologia tecnologica in quattro livelli che, conseguentemente, saranno affiancati da livelli diversi di monitoraggio. I citati livelli di rischio, elencati in ordine decrescente, sono i seguenti:

rischio inaccettabile – Si vietano in maniera assoluta i sistemi che utilizzano tecniche subliminali o sistemi di punteggio sociale utilizzati dalle autorità pubbliche. Sono inoltre vietati i sistemi di identificazione biometrica remota in tempo reale utilizzati dalle forze dell’ordine in spazi pubblicamente accessibili;

rischio alto – Queste includono applicazioni legate ai trasporti, all’istruzione, all’impiego e al welfare, tra le altre. Prima di mettere sul mercato o in servizio nell’UE un sistema di IA ad alto rischio, le aziende devono condurre una valutazione di conformità preliminare e soddisfare una serie di requisiti per garantire la sicurezza del sistema. Il regolamento prevede anche che la Commissione Europea crei e mantenga un database di accesso pubblico in cui i fornitori saranno obbligati a dare informazioni sui loro sistemi di IA ad alto rischio, garantendo trasparenza per tutte le parti interessate;

rischio limitato – Si riferiscono a sistemi di IA che soddisfano specifici obblighi di trasparenza;

rischio minimo – È rappresentato dalle applicazioni operanti mediante AI che già utilizziamo ampiamente.

Si prevede, altresì, la responsabilità primaria in capo ai providers dei sistemi ad intelligenza artificiale, anche se determinate responsabilità saranno assegnate a vario titolo anche a distributori, importatori ed utenti.

Il nodo inerente alla c.d. “generative artificial intelligence”e ai c.d.“foundation models

A discapito delle intenzioni poste a fondamento della regolazione di cui si discute, i negoziati circa la definitiva versione del regolamento sono attualmente in fase di stallo, ciò a causa di incompatibilità di vedute sui c.d.  “foundation models”, cioè quei modelli avanzati di artificial intelligence che hanno dato vita a ChatGPT e ad altre simili tipologie di bot. La contesa ha quale oggetto, dunque, i predetti foundation models, che assumono un ruolo cardine nello sviluppo e nell’ottimizzazione di applicazioni facenti uso di intelligenza artificiale. Questi ultimi, in tale ramo della materia tecnologica, si riferiscono a modelli di apprendimento automatico di base o di riferimento, ampiamente utilizzati come punto di partenza per sviluppare applicazioni più specifiche, appunto strutturate su un insieme di algoritmi e parametri ideati al fine di implementare operazioni di apprendimento automatico. Dunque, a differenza dei modelli “tradizionali” che sono progettati per compiti specifici, i foundation models svolgono la propria funzione basandosi su ingenti quantità di dati e sono caratterizzati da numerosi parametri, caratteristica che consente loro di svolgere una vasta quantità di azioni, superando i predetti modelli tradizionali: in breve, un foundation model rappresenta un tipo specifico e avanzato di modello di intelligenza artificiale che funge da fondamenta per lo sviluppo di sistemi più avanzati, che potrebbe in potenza assurgere ad un determinato grado di rischio.

La presidenza del Consiglio dell’Unione Europea, attualmente di matrice iberica, aveva proposto un approccio iniziale incentrato sulla gradualità, sottoponendo a stringente vigilanza ed esame esclusivamente i modelli di AI più avanzati ed innovativi. L’ultimo meeting tecnico, tenutosi lo scorso 10 novembre 2023, ha visto il diniego enunciato da alcuni paesi membri ma, elemento questo di assoluta novità, si è anche assistito ad un’opposizione cogente da parte di una schiera di aziende del settore tech, che hanno criticato l’approccio del regolatore europeo soprattutto con riguardo agli strumenti previsti per la regolamentazione dei “modelli di base di grandi dimensioni”, ritenendo che l’attuale disciplina potesse irrimediabilmente compromettere l’afflato innovativo e l’azione competitiva delle aziende interessate, con evidente vantaggio per i competitor internazionali. Tra gli innumerevoli rilievi sollevati, preminente importanza ha assunto la preoccupazione che siffatta stringente previsione avrebbe potuto tradursi in un soffocamento del processo innovativo, mettendo a repentaglio tanto l’innovazione quanto anche la concreta attuazione dell’approccio basato sul rischio, perno centrale dell’intero impianto regolatore dell’intelligenza artificiale.

L’evolversi degli ultimi eventi, l’inasprimento delle singole posizioni assunte dai diversi attori e, soprattutto, la mancanza di un accordo condiviso sta rischiando di compromettere concretamente l’approvazione definitiva della normativa in esame, riducendo l’influenza delle istituzioni europee nel campo della governance globale dell’intelligenza artificiale. Il tempo a disposizione per un cambio di rotta, infatti, sta per scadere: con la data per l’ultimo trilogo di negoziazione tra Parlamento, Consiglio e Commissione sull’AI Act fissata per il prossimo 6 dicembre, diventa cruciale risolvere le trattative con esito positivo.

Riflessioni conclusive

La regolamentazione dei sistemi di artificial intelligence rappresenta una pietra miliare con riferimento alla responsabilizzazione ed alla sicurezza circa l’utilizzo di siffatta innovazione tecnologica, al fine di identificare l’intelligenza artificiale quale strumento benefico, idoneo a produrre effetti positivi sulle annose questioni che attanagliano il nostro tempo, dando vita ad un sistema tecnologico che garantisca il pieno rispetto dei valori umani e l’etica, senza sacrificare però l’aspetto concernente l’innovazione: per far ciò è dunque necessario perseguire l’equilibrio tra innovazione tecnologica e protezione dei diritti umani, un obiettivo che richiede lo sforzo costante da parte di tutte le parti interessate.

autore: Dott. Antonino Guarino

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *