Intelligenza artificiale: uno sguardo alla regolamentazione europea

Com’è noto, l’intelligenza artificiale (in seguito anche solo “IA”) può essere definita come l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività. Tale tecnologia permette ai sistemi di capire il proprio ambiente, mettersi in relazione con quello che percepiscono, risolvere problemi, e dare una risposta specifica. Gli strumenti che utilizzano l’IA sono in grado di trasformare il modo di vivere e di lavorare di miliardi di persone e sono centrali nella rivoluzione digitale che sta coinvolgendo i nostri tempi. Tuttavia, sebbene i sistemi di IA siano ritenuti centrali per la trasformazione digitale, gli stessi stanno destando innumerevoli preoccupazioni e problematiche, soprattutto in termini etici. Per questo motivo, la materia è diventata una delle priorità dell’Unione Europea ed il Parlamento europeo ha istituito una commissione per esaminare l’impatto della tecnologia, richiedendo una legislazione “IA antropocentrica” e proiettata verso il futuro.

Indice degli argomenti

  1. Scenario attuale
  2. Categorie di rischio dei sistemi di IA
  3. Prospettive future dell’UE

1. Scenario attuale

Un’intelligenza artificiale (IA) affidabile può portare molti benefici, quali migliori cure sanitarie, trasporti più sicuri e puliti, processi di produzione più efficienti ed energia più economica e sostenibile. L’approccio dell’UE all’IA permetterà ai cittadini di far proprie tali tecnologie con convinzione, incoraggiando nel contempo le imprese a svilupparle”.[1]

Siamo davanti al preludio di un progetto molto ambizioso ed innovativo, attraverso il quale si auspica una vera e propria rivoluzione nell’uso delle tecnologie da parte di cittadini e imprese. Per questa ragione, la Commissione Europea ha recentemente approvato una proposta di Regolamento, che garantisca la sicurezza e i diritti fondamentali delle persone e delle imprese, rafforzando nel contempo gli investimenti e l’innovazione nei paesi dell’UE. In particolare, innumerevoli sono i benefici che l’intelligenza artificiale potrebbe apportare sotto molteplici punti di vista. Basti pensare che i cittadini potrebbero godere di una migliore assistenza sanitaria, mezzi di trasporto più sicuri, migliore accesso all’informazione e offerta di nuovi posti di lavoro. In particolare, in ambito sanitario alcuni ricercatori si sono serviti dell’intelligenza artificiale per analizzare grandi quantità di dati medici e scoprire corrispondenze e modelli per migliorare le diagnosi e la prevenzione; con riferimento ai trasporti, le nuove tecnologie potrebbero renderli più veloci ed efficienti, aprendo la strada anche alla guida automatica; rispetto all’accesso alle informazioni, sono presenti applicazioni di intelligenza artificiale che sono in grado di individuare fake news e disinformazione, analizzando i contenuti dei social media e identificando le parole e le espressioni sospette, perché sensazionalistiche o allarmanti. Anche alle imprese sarebbe consentito lo sviluppo di una nuova generazione di prodotti e servizi con percorsi di vendita più fluidi ed ottimizzati. Senza contare che l’IA applicata ai servizi pubblici potrebbe migliorare la gestione dell’energia e dei rifiuti, oltre a rendere nettamente migliore la sostenibilità dei prodotti. Ad esempio, vi è stato chi ha suggerito di censire gli abitanti di un comune mediante un sistema di algoritmi e di sacchetti col codice a barre, leggibile sia da parte dell’operatore che ritira i rifiuti dalla strada sia dai camion che li ritirano dai cassonetti. Ciò consentirebbe di conoscere la quantità e la qualità del rifiuto raccolto, nonché di programmare al meglio la programmazione degli itinerari e la tempistica della raccolta. Altro fattore positivo da non sottovalutare è quello della eguaglianza e della democrazia. Invero, grazie agli algoritmi di IA si potrà procedere alle verifiche basate sui dati, alla prevenzione della disinformazione e all’accesso a informazioni di qualità.

Nonostante ciò, anche l’IA è uno strumento fallibile: disparati sono i problemi rispetto ai quali l’intelligenza artificiale non è in grado di fornire una risposta soddisfacente, come ad esempio la risoluzione di complesse questioni sociali. È impellente, quindi, la necessità di scongiurare qualsiasi possibile abuso. L’altra faccia della medaglia è quella della raccolta e dell’utilizzo dei dati. L’intelligenza artificiale potrebbe rappresentare una minaccia nei confronti della protezione dei dati personali, condurre ad una manipolazione del dibattito pubblico o perfino minacciare la libertà di associazione, permettendo di inquadrare gli individui sulla base delle loro opinioni. Il mese scorso Pasquale Stanzione, presidente dell’Autorità Garante della Privacy, ha chiarito al riguardo che tale sviluppo non può prescindere da un governo antropocentrico dell’innovazione da declinare in chiave personalistica e solidaristica per impedire che la tecnica divenga un fattore di moltiplicazione anziché di riduzione delle diseguaglianze sociali. Con riferimento al rispetto della normativa privacy, bisogna progettare strumenti “privacy-friendly” orientati allo sviluppo delle libertà degli utenti, prevenendo prevaricazioni fondate sull’utilizzo di dati sensibili degli utenti. In questo senso, la valutazione di impatto privacy potrebbe includere anche la prospettiva sul rispetto dei diritti umani complessivamente intesi. Occorre imparare ad utilizzare queste tecnologie in modo da minimizzare il ricorso a dati personali, attraverso una vera e propria pedagogia digitale.[2] Dello stesso avviso, la Vice Presidente del Garante Privacy, Ginevra Cerrina Feroni, che ha posto l’accento sui rischi dell’IA: la migliore modalità per tutelare i dati personali anche nel rapporto con le intelligenze artificiali sta nella pretesa di applicazione stringente di due principi contenuti nel Regolamento Europeo per la protezione dei dati personali. Si tratta dei principi “privacy by design” e “privacy by default”, ai sensi dei quali l’algoritmo deve essere basato sul rispetto della sfera privata e le libertà dell’individuo.[3]

Vero è che le distorsioni e le discriminazioni rappresentano un rischio intrinseco di qualunque attività sociale od economica, ma queste stesse distorsioni, se presenti nell’IA, potrebbero tuttavia avere effetti molto maggiori e colpire o discriminare numerose persone in assenza dei meccanismi di controllo sociale che disciplinano il comportamento umano. Ciò può accadere anche quando il sistema di IA “apprende” nel corso del suo funzionamento. In tali casi, in cui i risultati non potevano essere evitati o anticipati in fase di progettazione, i rischi deriveranno non da difetti nella progettazione originale del sistema, bensì dagli effetti pratici delle correlazioni o dei modelli che il sistema individua all’interno di un ampio set di dati. Le caratteristiche specifiche di molte tecnologie di IA, tra cui l’opacità (effetto “scatola nera”), la complessità, l’imprevedibilità e un comportamento parzialmente autonomo, possono rendere difficile verificare il rispetto delle normative dell’UE in vigore volte a proteggere i diritti fondamentali e possono ostacolarne l’applicazione effettiva. Le autorità preposte all’applicazione della legge e le persone interessate potrebbero non disporre dei mezzi per verificare come sia stata presa una determinata decisione con il coinvolgimento di sistemi di IA e, di conseguenza, se sia stata rispettata la normativa pertinente. Le persone fisiche e giuridiche possono incontrare difficoltà nell’accesso effettivo alla giustizia in situazioni in cui tali decisioni possono avere ripercussioni negative su di loro.[4] Inoltre, un tema da non sottovalutare è quello della protezione del mercato in tema di concorrenza. Invero è bene regolamentare le asimmetrie informative e la trasparenza, qualora le informazioni fossero sfruttate a scapito degli utenti.

Alla luce delle questioni ora esposte, è evidente che lo scenario attuale impone un’elevata cautela nell’incoraggiare la diffusione dei sistemi di intelligenza artificiale onde evitare una distorsione negativa.

2. Categorie di rischio dei sistemi di IA

Ciò posto, interesse primario dell’Unione Europea è quello di sostenere un approccio normativo e orientato agli investimenti con il duplice obiettivo di promuovere l’adozione dell’Intelligenza Artificiale e di affrontare i rischi associati a determinati utilizzi di questa nuova tecnologia. Pertanto, la nuova proposta di disciplina europea è imperniata sulla sicurezza, trasparenza, eticità, imparzialità e controllabilità da parte dell’uomo dei sistemi di IA.  Il titolo I della proposta di regolamento definisce l’oggetto del regolamento e il campo di applicazione delle nuove norme che riguardano l’immissione sul mercato, la messa in servizio e l’uso dei sistemi di intelligenza artificiale, nonché le definizioni utilizzate in tutto lo strumento. La definizione di sistema IA nel quadro giuridico mira ad essere il più neutrale possibile dal punto di vista tecnologico e a prova di futuro, tenendo conto dei rapidi sviluppi tecnologici e di mercato relativi all’IA. Al fine di fornire la necessaria certezza giuridica, il titolo I è completato dall’allegato I, che contiene un elenco dettagliato di approcci e tecniche per lo sviluppo dell’IA che la Commissione deve adattare in linea con i nuovi sviluppi tecnologici. I partecipanti chiave attraverso la catena di valore dell’IA sono anche chiaramente definiti, come i fornitori e gli utenti dei sistemi di IA che coprono sia gli operatori pubblici che quelli privati per garantire condizioni di parità. Vera novità è rappresentata dal fatto che tali sistemi vengono classificati sulla base del rischio, individuandone quattro categorie.

  • Rischio inaccettabile. Il titolo II che individua una lista di strumenti IA proibiti.

In particolare, In questa categoria rientrano tutti i sistemi considerati una minaccia per i cittadini dell’UE e per ciò stesso vietati. I divieti riguardano pratiche con un significativo potenziale di manipolare le persone attraverso tecniche subliminali al di là della loro coscienza o sfruttano le vulnerabilità di certi gruppi specifici come i bambini o le persone con disabilità al fine di distorcere il loro comportamento. Basti pensare a sistemi di credito sociale utilizzati dai governi ovvero a dispositivi che incoraggino i bambini a tenere comportamenti pericolosi.

  • Rischio elevato. Il titolo III contiene regole specifiche per i sistemi di IA che creano un alto rischio per la salute e la sicurezza dei diritti fondamentali delle persone fisiche. In questo caso, prima dell’immissione sul mercato e durante la vita dei dispositivi che fanno parte di questa categoria, verranno effettuate delle valutazioni di conformità. È richiesto il soddisfacimento dei requisiti in materia di IA e la registrazione dei sistemi presso una banca dati autonoma.
    Si fa riferimento ad ambiti quali quelli delle infrastrutture critiche, come i trasporti; istruzione o formazione professionale, come il punteggio degli esami; componenti di sicurezza dei prodotti; occupazione, gestione dei lavorativi e accesso al lavoro autonomo; servizi pubblici e privati essenziali; attività di contrasto che possono interferire con i diritti fondamentali delle persone; amministrazione della giustizia e processi democratici; gestione della migrazione, dell’asilo e del controllo delle frontiere.
  • Rischio limitato. I sistemi riferibili a tale categoria di rischio saranno soggetti a obblighi minimi di trasparenza, poiché in grado di consentire agli utenti di prendere una decisione informata e di rinunciare all’utilizzo in qualsiasi momento. Si tratta, ad esempio, dei chatbot.
  • Rischio minimo. Le nuove norme non intervengono su tali sistemi, poiché essi rappresentano un rischio minimo o nullo per i diritti o la sicurezza dei cittadini. Un esempio è costituito dall’uso gratuito di applicazioni, come i videogiochi o filtri spam che si avvalgono dell’IA.[5]

3. Prospettive future dell’UE

La Commissione europea ritiene che il quadro legislativo possa essere migliorato per affrontare una serie di situazioni e rischi. Anzitutto, le tecnologie di IA rendono difficile garantire l’effettiva applicazione e il rispetto della normativa nazionale e dell’UE in vigore. A causa della mancanza di trasparenza (opacità), è difficile individuare e dimostrare eventuali violazioni delle disposizioni normative- ivi comprese quelle che tutelano i diritti fondamentali-, attribuire la responsabilità e soddisfare le condizioni per chiedere un risarcimento. Pertanto, al fine di garantire l’effettiva applicazione e il rispetto delle norme, può essere necessario adeguare o chiarire la legislazione in vigore in determinati settori, ad esempio in materia di responsabilità. Altro punto critico è rappresentato dai limiti dell’ambito di applicazione della legislazione dell’UE vigente: la normativa generale dell’UE in materia di sicurezza attualmente in vigore si applica ai prodotti ma non ai servizi, per cui in linea di principio non si applica nemmeno ai servizi basati sulla tecnologia di IA (ad esempio servizi sanitari, finanziari e di trasporto). Inoltre, a causa della funzionalità mutevole dei sistemi di IA, l’integrazione del software, compresa l’IA, nei prodotti può modificarne il funzionamento durante il ciclo di vita. Ciò vale in particolare per i sistemi che richiedono frequenti aggiornamenti del software o che si basano sull’apprendimento automatico. Tali caratteristiche possono dar luogo a nuovi rischi, peraltro non adeguatamente disciplinati dalla legislazione esistente, che non erano presenti quando il sistema è stato immesso sul mercato. L’evoluzione del concetto di sicurezza implica, poi, che l’uso dell’IA nei prodotti e nei servizi può dar luogo a rischi che la legislazione dell’UE attualmente non affronta in modo esplicito. Tali rischi possono essere collegati alle minacce informatiche, possono riguardare la sicurezza personale (ad esempio i rischi collegati a nuove applicazioni dell’IA, come nel caso dell’IA applicata agli elettrodomestici), o ancora possono derivare dalla perdita di connettività. Tali rischi possono essere presenti al momento dell’immissione dei prodotti sul mercato, o derivare da aggiornamenti del software o dall’apprendimento automatico durante l’uso del prodotto. L’UE dovrebbe avvalersi appieno degli strumenti a sua disposizione per rafforzare la base di conoscenze scientifiche di cui dispone sui potenziali rischi connessi alle applicazioni di IA, sfruttando anche l’esperienza dell’Agenzia dell’Unione europea per la cibersicurezza (ENISA) al fine di valutare il panorama delle minacce dell’IA. Vari Stati membri stanno già valutando diverse opzioni per affrontare attraverso la legislazione nazionale le sfide poste dall’IA, ma ciò comporta un rischio di frammentazione del mercato unico. Norme nazionali divergenti possono creare ostacoli per le imprese che intendono vendere e gestire sistemi di IA nel mercato unico. Garantire un approccio comune a livello di UE consentirebbe alle imprese europee di beneficiare di un accesso agevole al mercato unico e favorirebbe la loro competitività sui mercati mondiali. In base a quanto esposto in precedenza la Commissione conclude che, oltre agli eventuali adeguamenti della legislazione esistente, potrebbe essere necessaria una nuova normativa specifica sull’IA al fine di adeguare il quadro giuridico dell’UE agli sviluppi tecnologici e commerciali attuali e futuri. In ogni caso, obiettivo della Commissione europea è stato quello della promozione dell’eccellenza nell’intelligenza artificiale, al fine di perseguire strategie nazionali e sviluppi strategici. In particolare, l’intervento del 2021 è fortemente collimante con le priorità verdi e digitali della Commissione, oltre che con la ripresa che si auspica a suggello dell’ondata pandemica di Coronavirus. Sono previsti cospicui investimenti nel settore dell’IA al fine di una tempestiva attuazione e dell’armonizzazione delle politiche in materia in tutta l’Unione.

Quattro sono gli obiettivi chiave individuati a livello comunitario:

  • La costruzione di una leadership strategica nei vari settori;
  • La predisposizione delle condizioni di ammissibilità dei sistemi;
  • Rendere l’UE il posto giusto;
  • Assicurare che le tecnologie IA siano funzionanti.

A fronte di questa prospettiva, la Commissione si impegna ad istituire un partenariato sull’intelligenza artificiale al fine di attuare e investire in un piano strategico comune di ricerca; reti supplementari che promuovano lo scambio di conoscenze; strumenti di prova e sperimentazione; sportelli unici per fornire acceso alle competenze tecniche e alla sperimentazione; una piattaforma centrale di IA a livello europeo. Sino adesso, gli interventi di IA finanziati dall’UE sono stati di successo e profittevoli. Basti pensare alla sanità e al progetto CDAC (Centre for Development of Advanced Computing) che ha contribuito alla creazione di tecnologie innovative in grado di riabilitare pazienti colpiti da ictus oppure al progetto ANTARES (Advanced Technologies in Sustainable Agriculture and Food Security) che potrebbe aiutare gli agricoltori a produrre cibo più sostenibile per la società.  Insomma, quello di regolamentazione dell’IA è un percorso evolutivo già avviato e che potrebbe rendere l’UE il leader mondiale in materia di intelligenza artificiale sicura. Elaborando un solido quadro normativo basato sui diritti umani e sui valori fondamentali, l’UE sarà in grado di sviluppare un sistema di IA di cui beneficeranno i cittadini, le imprese e i governi.


[1] https://ec.europa.eu/info/strategy/priorities-2019-2024/europe-fit-digital-age/excellence-trust-artificial-intelligence_it#latest

[2] https://www.youtube.com/watch?v=a99JXlUsQNo

[3] https://www.youtube.com/watch?v=7u1bfp2JmD0

[4] White paper, UE Commission.

[5] Proposal for a regulation of the European Parliament and of the council laying down harmonized rules on artificial intelligence (artificial intelligence act) and amending certain union legislative acts.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *