etica

Le legaltech e lo scontro con l’etica

Da qualche anno a questa parte stiamo assistendo all’incontro/scontro tra le innovazioni tecnologiche, l’etica e la tradizione. Lo sviluppo tecnologico, come rimarcato più volte, apporta indubbie migliorie alla vita quotidiana di ognuno di noi, ma, a fare da contraltare alle prospettive più rosee vi sono una serie di rischi per i diritti e le libertà fondamentali dell’uomo.

Indice degli argomenti

  • I rischi etici e non legati all’utilizzo dell’AI
  • La posizione europea
  • Riflessioni conclusive

I RISCHI ETICI E NON LEGATI ALL’UTILIZZO DELL’AI

Il problema relativo all’etica è particolarmente serio quando si tratta di sistemi o software automatizzati che utilizzano l’intelligenza artificiale (AI). Questo fenomeno è ben descritto nelle parole della Commissione Europea:la tecnologia cambierà la nostra vita in positivo, ma, per fare ciò è necessario che venga regolamentata in modo da presidiare ed azzerare i rischi che inevitabilmente porta con sé”, è da questa affermazione che origina la breve analisi che segue.

I BIAS

Il primo problema riguarda i cosiddetti “bias” e le discriminazioni operate dai sistemi AI. Un caso esemplificativo proviene dagli States dove viene utilizzato, in ambito penale, un software capace di determinare il grado di recidività di un soggetto. Il sistema però, non va esente da critiche, invero, è stato addirittura tacciato di razzismo in quanto etichettava persone di colore come soggetti ad alto rischio di recidiva, mentre, convenuti “bianchi” come soggetti a basso rischio.

In merito al problema in parola, il Comitato consultivo europeo per le pari opportunità si è fatto portavoce di questo problema e ha sottolineato come tutti i processi decisionali, siano essi posti in essere da un umano o da un sistema AI, non siano immuni da errori e pregiudizi. Tuttavia, prosegue il Comitato, quando l’errore è commesso da un sistema AI, l’effetto potrebbe essere molto più serio in quanto vengono a mancare i meccanismi di controllo sociale che regolano il comportamento umano.

I “BLACK BLOCKS”

Il secondo rischio è legato all’ “opacità” che caratterizza le decisioni algoritmiche e che viene definito anche come problema dei “black block”. La questione si fa ancora più seria quando, le decisioni prese utilizzando sistemi AI, non possono essere sindacate a livello giudiziale in quanto, vista la complessità, l’imprevedibilità e la mancanza di trasparenza, non è possibile tracciare ed analizzare l’iter che ha portato il sistema a adottare una determinata soluzione.

A livello europeo il GDPR pone un parziale freno a questo problema, in particolare l’articolo 22 prevede il diritto dell’interessato di “non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona” e, l’articolo14 impone di fornire all’interessato, in caso di decisione automatizzata “informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento per l’interessato”, in modo da rendere la decisione sindacabile.

LA RESPONSABILITÀ CIVILE PER DANNI

In ultimo, c’è il problema legato alla responsabilità derivante dai danni causati dai sistemi AI. Immaginiamo un incidente provocato da un difetto della tecnologia di riconoscimento degli oggetti di una macchina autonoma, di chi è la responsabilità? Del produttore? Del distributore? Del conducente? In aggiunta, si pone anche la questione concernente la prova del nesso causale intercorrente tra il difetto dell’auto e il danno causato, infatti, l’impossibilità di provare tale elemento riduce le possibilità di tutela del soggetto danneggiato rispetto alle situazioni in cui i danni sono cagionati dall’uomo o da tecnologie regolamentate.

LA POSIZIONE EUROPEA

I rischi ora riportati hanno attirato l’attenzione della Commissione europea la quale, in un white paper pubblicato il 19 febbraio 2020, ha sottolineato l’importanza di una regolamentazione comune europea in materia di AI, al fine di creare un ecosistema di fiducia tra autorità, produttori e utilizzatori. Per fare ciò, la stessa Commissione indica sette requisiti necessari per rendere l’AI più etica:

  1. I sistemi AI devono sempre essere supervisionati e controllati dall’uomo;
  2. Gli algoritmi utilizzati devono essere sicuri e capaci di contrastare gli errori che potrebbero sorgere durante il ciclo di vita del sistema;
  3. I dati non devono essere utilizzati a fini discriminatori e i cittadini devono avere pieno controllo degli stessi;
  4. Deve essere garantita la trasparenza e la tracciabilità dei metodi di ragionamento utilizzati dai sistemi AI, in modo da rendere le decisioni sindacabili;
  5. Devono essere inseriti dati diversificati in modo da azzerare i rischi di discriminazione;
  6. I sistemi AI devono essere impiegati per migliorare la società;
  7. Devono essere adottati meccanismi che garantiscano la responsabilità dei sistemi AI, in modo da evitare vuoti di tutela.

Queste linee guida fanno sì che le libertà e i diritti fondamentali dei cittadini europei siano salvaguardati, evitano il sorgere di normative nazionali frammentate e discordanti, che comporterebbero anche una frammentazione del mercato europeo per i servizi AI, ed in ultimo, aumentano i livelli di sicurezza dei servizi rendendoli più appetibili e più competitivi.

RIFLESSIONI CONCLUSIVE

In un panorama così delineato, i professionisti forensi hanno il compito di indagare e capire quali potrebbero essere gli sviluppi futuri della tecnologia in modo da cercare soluzioni in grado di regolamentarli e di presidiare i rischi che essi comportano. In conclusione, presto o tardi qualcuno dovrà decidere cosa potranno o non potranno fare gli strumenti tecnologici dal punto di vista etico, morale e legale, e tale compito spetterà in gran parte ai professionisti in ambito legale.

FONTI:

https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_it.pdf

UNISCITI A NOI!
Se vuoi dirci la tua e rimanere aggiornato sul mondo legaltech unisciti alla community Telegram! Clicca qui per partecipare!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.