LA STRATEGIA ITALIANA PER L’INTELLIGENZA ARTIFICIALE: LUCI E OMBRE

Un primo passo verso la regolamentazione dell’utilizzo dell’intelligenza artificiale in Italia

Nel luglio 2020 una commissione di esperti del Ministero dello Sviluppo Economico (MISE) ha portato a termine l’arduo compito di delineare un piano coerente per consentire all’Italia di massimizzare i benefici derivanti dalla trasformazione digitale e tecnologica. Il risultato del lavoro in parola ha portato alla pubblicazione di un documento contenente le proposte per la strategia italiana per l’intelligenza artificiale con lo scopo precipuo di traghettare il “Bel Paese” in quella che è stata definita dal MISE una “trasformazione digitale made in Italy”.

Ciò posto, il documento pubblicato dal MISE contiene anche alcune zone d’ombra in cui si insediano i rischi insiti all’utilizzo incauto dei software AI e che inevitabilmente porgono un guanto di sfida al diritto.

Indice degli argomenti

  1. Come è regolato in Italia l’utilizzo dell’intelligenza artificiale?
  2. Intelligenza Artificiale: una breve descrizione
  3. Proposte per una strategia italiana per l’AI: l’origine
  4. Intelligenza artificiale: la sfida al diritto
    • La tutela del consumatore-utente
    • La protezione dei dati personali
    • La responsabilità civile
  5. Riflessioni conclusive

Come è regolato in Italia l’utilizzo dell’intelligenza artificiale?

Il Ministero per lo Sviluppo Economico ha pubblicato lo scorso luglio un documento contenente le proposte per la strategia italiana per l’intelligenza artificiale, definendolo “giro di boa fondamentale per raggiungere una trasformazione digitale made in Italy”, e completando così il lavoro di una task force di esperti selezionati che hanno raccolto e razionalizzato le osservazioni e i suggerimenti pervenuti a seguito di una consultazione pubblica svoltasi l’anno passato.  

Il lavoro svolto dagli esperti del MISE non deve far dimenticare, tuttavia, la necessità prendere atto e di valutare i rischi insiti all’utilizzo incauto dei software AI; esemplificativamente, i rischi connessi alla possibile manipolazione dell’opinione pubblica mediante la creazione e la diffusione virale di fake news, alla responsabilità civile per i danni causati da macchine intelligenti, alla discriminazione e alla mancanza di trasparenza che potrebbero caratterizzare le decisioni prese da una macchina o, ancora, all’utilizzo in ambito militare di tali tecnologie. In altri termini, prendendo in prestito le parole della Commissione Europea “la tecnologia AI cambierà la nostra vita in positivo, ma per fare ciò è necessario che venga regolamentata in modo da presidiare ed azzerare i rischi che inevitabilmente porta con sé”.

Intelligenza Artificiale: una breve definizione

Preliminarmente, prima di addentrarsi nell’analisi del documento redatto dalla task force di esperti del Ministero, è opportuno definire il concetto di “intelligenza artificiale” (o AI volendo utilizzare l’acronimo anglosassone).

In primis, va chiarito che nonostante l’utilizzo dell’aggettivo “intelligente”, i sistemi AI non sono intelligenti strictu sensu giacché non possiedono una vera e propria capacità di intellegere la realtà e di formare una coscienza propria ed autonoma. Diversamente, si tratta di una branca della tecnologia che sviluppa software e sistemi che, attraverso l’utilizzo di sofisticati algoritmi, sono in grado di elaborare un’enorme mole di dati sulla base dei quali interpretano la realtà e assumono decisioni, per lo meno in specifici domini e ambiti applicativi.

Proposte per una strategia italiana per l’Intelligenza Artificiale: l’origine

Il documento in parola nasce dalla consapevolezza che l’intelligenza artificiale rappresenta un’opportunità unica e senza precedenti per dare impulso alla produttività, al lavoro, all’interazione sociale e commerciale e allo sviluppo sostenibile di un Paese.  La strategia pensata e sviluppata dal MISE prende le mosse dalla strategia europea per l’intelligenza artificiale contenuta nel libro bianco sull’intelligenza artificiale pubblicato dalla Commissione Europea il 19 febbraio 2020. Invero, l’idea di fondo da cui scaturiscono entrambi i succitati documenti risiede nella convinzione per cui la tecnologia basata sui sistemi AI può e deve aiutarci a migliorare la vita delle persone, da qui la scelta operata dalla task force del MISE di trattare la questione in parola mediante un approccio antropocentrico.

Date queste premesse, il gruppo di esperti ha sentito il bisogno di sottolineare che il suddetto approccio antropocentrico non può prescindere dalla regolamentazione dell’AI in un’ottica di tutela dell’individuo, a prescindere dal fatto che lo si consideri cittadino, consumatore od utente. A questo riguardo, la strategia italiana si prefigge l’obiettivo di una tutela tout court dell’individuo, tenendo in debito conto una serie di profili e principi fondamentali tra cui la trasparenza, la sicurezza, la robustezza e l’accountability dei sistemi AI.

Intelligenza artificiale: la sfida al diritto

Premesso che i profili critici e gli ostacoli che l’utilizzo delle tecnologie AI presentano sono molteplici e pervadono diversi campi da quello squisitamente politico, a quello economico, a quello etico[1], questo breve paragrafo si pone di analizzare le principali sfide che le tecnologie in parola pongono dinanzi al diritto. Queste sfide corrono lungo tre direttrici principali, da cui scaturiscono ulteriori diramazioni:

  1. La tutela del consumatore-utente;
  2. La protezione dei dati personali;
  3. La responsabilità civile.

La tutela del consumatore-utente

Il primo filone scaturisce dalla consapevolezza che il consumatore-utente è soggetto “debole”. Invero, nel campo dei sistemi AI l’asimmetria informativa e i limiti cognitivi che caratterizzano il rapporto uomo-macchina sono ancora più sentiti e pregnanti rispetto ad altri settori. Ciò posto, la strategia del MISE mira a trasformare il consumatore-utente in un soggetto attivo, consapevole ed “iperconnesso” e, per fare ciò, individua tre principi cardine che devono essere rispettati e utilizzati come stella polare nell’adozione di nuove leggi o nell’interpretazione di quelle già esistenti: trasparenza, replicabilità, sicurezza ed affidabilità.   Tra l’altro, le proposte contenute nel documento strategico non si limitano a descrivere il problema, ma vanno oltre, delineando anche alcune soluzioni.

In primis, si ritiene necessario introdurre, per i produttori e per i soggetti che commercializzano sistemi AI, un obbligo di informazione per il consumatore ogniqualvolta questo si trovi ad interagire con un soggetto non umano. Per chiarire meglio questa proposta, ci basti pensare a quello che succede oggigiorno con i c.d. CAPTCHA, ossia quei sistemi che in caso di accesso ad un sito web o al fine di validare una scelta sul web, chiedono all’utente di porre in essere delle attività per dare prova di non essere robot. Allo stesso modo, le macchine AI dovranno rivelare la loro natura non-umana ogni qualvolta si interfacceranno con un utente in carne ed ossa.  Inoltre, gli esperti considerano fondamentale che l’utente-consumatore goda di un “diritto alla trasparenza” consiste nella possibilità di venire a conoscenza dei parametri, dei dati e dei processi che vengono utilizzati dagli algoritmi AI per assumere una determinata decisione, al fine di poterla opporre e sindacare. Sotto quest’ultimo aspetto, il regolamento europeo generale sulla protezione dei dati (in breve GDPR) presenta già una tutela parziale, nello specifico l’articolo 22 del succitato regolamento impedisce ad un soggetto di essere “sottoposto ad una decisione basata unicamente sul trattamento automatizzato che produca effetti giuridici che lo riguardino o che incida significativamente sulla sua persona”.

Da ultimo, e sempre nell’ottica di rendere i sistemi AI trasparenti, robusti ed affidabili, ed in assenza di un quadro regolamentare adeguato, la strategia propone di prendere ad esempio il meccanismo di data protection impact assessment (DPIA) istituito dall’articolo 35 del GDPR come strumento per responsabilizzare gli operatori e i produttori di tecnologie AI e per consapevolizzare l’utente-consumatore circa l’utilizzo di quest’ultime. In particolare, il DPIA richiede che, qualora il trattamento dei dati di un soggetto presenti un rischio elevato per i diritti e le libertà dell’individuo, il titolare del trattamento prima di procedere al trattamento stesso debba valutare attentamente ed esplicitare all’utente l’impatto che i rischi potrebbero avere sulla sua sfera personale. Sulla falsariga di quanto ora descritto, il MISE propone di redigere una sorta di “check-list” contenente gli adempimenti minimi e necessari e le prescrizioni normative alle quali attenersi per tenere indenne l’utente dai rischi insiti nell’utilizzo della tecnologia AI.

La protezione dei dati personali

Il secondo grande filone riguarda, invece, la protezione dei dati personali e, in particolar modo, la convivenza tra scambio e condivisione di questi ultimi da un lato e le prescrizioni normative del GDPR [2] dall’altro. L’impianto del regolamento europeo riflette perfettamente la consapevolezza che i dati, in particolare i big data, rappresentano il “nuovo oro” e paradigma economico per le imprese.  

Al problema dell’utilizzo e dell’acquisizione lecita o non lecita dei dati cui il GDPR cerca di porre un freno, si affianca quello relativo allo sfruttamento dei dati per condizionare le scelte dei singoli consumatori sia sul piano dell’acquisto di beni e servizi, sia su quello geopolitico, in particolar modo con riguardo al pericolo di manipolazione delle scelte in sede elettorale.  In aggiunta, l’individuo è sempre più portato a sacrificare i propri dati e la propria privacy in cambio di beni, agevolazioni e servizi che gli vengono forniti a costo zero da parte delle società che utilizzano i suoi dati. A fronte di queste tendenze che sembrerebbero inarrestabili, gli esperti del MISE propongono di dare agli utenti la possibilità di monetizzare i propri dati, purché a questi sia “chiaramente garantito di poter esprimere il proprio consenso e riconosciuta una giusta quota nel valore creato  per mezzo del trattamento dei loro dati”. Il dato personale quindi si trasformerebbe da diritto fondamentale ed indisponibile a moneta di scambio. Riguardo tale proposta il Garante della Privacy Italiano ritiene che una monetizzazione comporterebbe un condizionamento ancora maggiore della libertà dei singoli e una limitazione ancora più pregante del controllo sui dati personali. Diversamente, sul fronte europeo, a Bruxelles si discute circa la possibilità di rendere l’utente un vero e proprio “azionista” delle società cui presta il consenso per il trattamento dei propri dati, si tratta però solo di una proposta di cui ancora non conosciamo termini e contenuti effettivi.

Quel che è certo è che per tutelare chi non desidera, o meglio non desidererà, mettere in vendita la propria privacy sarà necessario implementare delle misure di sicurezza e di accountability a tutto tondo all’interno di regolamenti e di policy interne alle aziende, nel GDPR e in tutte le altre legislazioni che verranno in materia. 

La responsabilità civile

In ultimo, vi è il problema legato al risarcimento per i soggetti colpiti e danneggiati da pratiche di decisione algoritmica automatizzata dei sistemi AI. 

Non essendoci, a livello comunitario, delle disposizioni precise in tema di responsabilità civile la proposta del Ministero è quella di interpretare estensivamente e analogicamente le disposizioni del nostro codice civile nell’attesa di un intervento del legislatore.

Nello specifico, gli esperti ritengono che nell’alveo dell’articolo 2050 c.c. concernente la responsabilità per esercizio di attività pericolose, possano rientrare senza particolari limitazioni le attività che ricomprendono l’utilizzo di robot e più in generale di sistemi AI. Nonostante il fascino e la creatività esegetica dimostrata dalla tesi ora descritta, è bene ricordare che si tratta di interpretazioni analogiche che non trovano, ad oggi, nessun appoggio codicistico e giurisprudenziale, indi per cui sarebbe auspicabile un intervento ad hoc da parte del legislatore che si appresti ad introdurre, ad esempio, delle clausole standard ma al contempo flessibili che tutelino l’utente-consumatore che si interfaccia con sistemi AI e, come proposto nel documento del Ministero, un’assicurazione obbligatoria, sulla falsa riga dell’assicurazione RCA, che garantisca il risarcimento alle vittime danneggiate da sistemi AI.

Riflessioni conclusive

In uno scenario così delineato, per scongiurare il rischio che la regolamentazione dell’intelligenza artificiale si riveli come una scritta sulla sabbia destinata a scomparire all’arrivo di una nuova ondata tecnologica,  sono i legislatori e i professionisti forensi ad avere il compito di prendere in mano le redini della situazione e di indagare, con occhio critico, quali potrebbero essere gli sviluppi futuri della tecnologia AI al fine di trovare soluzioni flessibili e adatte a prevenire i rischi che questa porterà con sé in prima battuta, e a non lasciare l’utente consumatore privo di tutela qualora la sua sfera giuridica personale venisse lesa.

Note

[1] Se vuoi approfondire il tema dell’etica legato all’utilizzo dell’intelligenza artificiale clicca su questo link: https://www.legaltechitalia.eu/le-legaltech-e-lo-scontro-con-l-etica/

[2] Se approfondire il tema dell’intelligenza artificiale e del GDPR clicca su questo link: https://www.dirittoconsenso.it/2020/05/02/il-gdpr-e-intelligenza-artificiale/

Fonti

Questo contributo è stato redatto da un articolista di Legaltech Italia, partner di Dirittoconsenso.it

UNISCITI A NOI!
Se vuoi dirci la tua e rimanere aggiornato sul mondo legaltech unisciti alla community Telegram! Clicca qui per partecipare!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *