INTELLIGENZA ARTIFICIALE: RISCHI E SCENARI GEOPOLITICI

La sempre più incessante implementazione dell’intelligenza artificiale e la sua conseguente applicazione nei più svariati ambiti della quotidianità, dalla sanità agli studi professionali, dalla ricerca alla difesa, ha certamente contribuito ad apportare un indiscutibile beneficio nei settori in cui si è trovata ad operare, con la naturale conseguenza di un ricorso a siffatta innovazione tecnologica caratterizzato da un’esponenziale crescita in termini di platea di utenza, con il moltiplicarsi di servizi offerti e providers eroganti. Dunque, appare quasi naif affermare che l’impatto dell’artifical intelligence non si esplichi sole nelle quotidianità ordinarie dei singoli cittadini ma che, al contrario, rappresenti uno strumento connotato da una forza innovativa dirompente, tale da incidere in maniera anche vistosa su molti altri ambiti, anche di eminente competenza collettiva o statale, tanto in ambito civile quanto nel comparto militare. Ebbene, succintamente sintetizzate le enormi potenzialità applicative tipiche dello strumento in esame, risulta necessario evidenziarne anche i potenziali rischi, anche alla luce degli strumenti di tutela preventiva all’uopo predisposti da parte degli attori internazionali, in particolar modo da parte dei singoli Stati e delle Organizzazioni sovranazionali, allo scopo di inibirne per quanto possibile le eventuali criticità. Nel contesto che a noi più interessa, cioè l’ambito di matrice unionale, è stato predisposto uno strumento normativo, avente un’inclinazione marcatamente regolatrice della materia, che è stato ritenuto idoneo sia a limitare gli effetti avversi di una deregulation “selvaggia” sia a porre le basi per una più compiuta configurazione di un paradigma giuridico uniforme e vincolante, teso a fornire la materia di una granitica disciplina. Si fa riferimento, invero, all’introduzione dell’Artificial Intelligence Act (c.d. “AI Act”), adottato definitivamente lo scorso 24 aprile grazie all’unanime benestare pervenuto da parte dei ventisette Stati membri dell’Unione Europea, i quali hanno appunto votato compattamente in favore dell’introduzione nell’ordinamento giuridico europeo del predetto atto normativo, consolidando in tal modo il precedente accordo politico stipulato nel dicembre 2023 in seguito a lunghe e non sempre agevoli trattative. Siffatto provvedimento legislativo risulta caratterizzato da assoluta rilevanza poiché, oltre a rappresentare il primo regolamento che ha l’ambizione di disciplinare la complessa materia concernente l’intelligenza artificiale generativa, nel suo corpus si rinvengono altresì delle disposizioni di eminente importanza. Il documento in esame stabilisce a fondamento della propria ratio due punti cardinali, che ne permeano l’intero impianto: la sicurezza e la trasparenza su cui devono essere progettati e sviluppati tutti i sistemi caratterizzati dall’uso di strumenti di Intelligenza Artificiale. Ovviamente, primaria importanza ricopre, nel contesto dell’atto in analisi, la precipua regolamentazione dell’intelligenza artificiale in termini di garanzia e rispetto dei principi fondamentali posti alla base della legittimazione politica stessa dell’Unione Europea; i predetti principi fondamentali sono, come accennato, quello inerente la sicurezza, intesa come sicurezza del cittadino ma anche come sicurezza delle frontiere e delle infrastrutture strategiche, e quello della trasparenza, quest’ultimo ancora di tutela del cittadino innanzi le istituzioni: l’obiettivo è dunque quello di incentivare l’uso dell’intelligenza artificiale tutelando al contempo i diritti umani ed i valori democratici. Altro pilastro della normativa introdotta dall’atto di nuova adozione è quello di improntare i propri precetti ad un approccio inestricabilmente connesso al c.d. risk assessment, così da garantire una più granitica e permeante regolazione li dove maggiore risulta essere il grado di rischio profilato. A norma del Regolamento, il concetto di rischio sotteso alla propria disciplina è da intendersi, in via prioritaria, quale fattore di rischio collegato ad una potenziale minaccia o, all’estremo, ad un concreto danno alla sicurezza dei cittadini europei; da ciò, ne è derivata l’elaborazione e la conseguente configurazione di tre specifiche categorie di rischio, determinate in base alla loro portata grado di minaccia: rischio inaccettabile, rischio elevato e rischio limitato. Nella prima categoria confluiscono le minacce direttamente rivolte nei confronti degli individui e della loro incolumità, come, ad esempio, la manipolazione cognitiva. La seconda tipologia di rischio contempla le minacce prodotte in riferimento alla potenziale lesione di diritti fondamentali dei cittadini e della sicurezza pubblica. Infine, la terza categoria, quella del rischio limitato, si riferisce alle ipotesi che risultano conformi a requisiti minimi di trasparenza. In definitiva, si può ben affermare che l’obiettivo principale di tale normativa sia quello di offrire una tutela ad ampio spettro dei diritti fondamentali degli individui e della società collettivamente intesa, diritti potenzialmente aggredibili mediante un uso non corretto dell’intelligenza artificiale e che, perciò, potrebbe essere violati in maniera compromettente, anche da soggetti ostili di natura extra-unionale.


Difatti, passando ad un’analisi più strettamente collegata alle implicazioni di carattere geopolitico che la tecnologia in esame ha inevitabilmente prodotto e produrrà in futuro, soprattutto relativamente alla competizione tra superpotenze, è necessario evidenziare come l’inarrestabile ascesa dell’AI potrebbe fungere da catalizzatore per l’accrescimento delle tensioni internazionali tra attori rivali. Emblematica in tal senso appare la contesa egemonica instauratasi tra l’egemone globale, gli Stati Uniti d’America, ed il loro sfidante principale, cioè la Repubblica Popolare Cinese. La competizione tecnologica tra i due attori è, tra l’altro, ulteriormente aggravata dalle rispettive strategie propagandistiche, che vogliono sia l’uno sia l’altro, a fasi alterne, come il più avanzato nelle relative applicazioni tecnologiche, così da produrre un costante “momento Sputnik”, contribuendo in tal modo ad accrescere il livello di incertezza e di reciproca ostilità, con risvolti anche sul piano delle relazioni militari e diplomatiche, poiché si tende a creare un effetto amplificatore delle preoccupazioni inerenti le potenziali vulnerabilità strategiche e i possibili squilibri di potere. Una tale condotta, all’estremo, potrebbe condurre uno dei due sfidanti ad ipotizzare uno scenario in cui l’avversario abbia raggiunto un livello irraggiungibile di sviluppo tecnologico, foriero di impareggiabili vantaggi in termini economici e militari, idoneo a giustificare l’adozione di misure manu militari. L’epoca storica in cui ci troviamo ad esistere è certamente contraddistinta da un grado oltremodo elevato di disordine internazionale, il quale si palesa in diverse forme: l’incertezza sulle motivazioni degli attori rivali, i dubbi sulla proliferazione dei sistemi militari supportati dall’intelligenza artificiale e sulle relative prestazioni in tempo di crisi o conflitto, le ambiguità sulla potenziale integrazione delle nuove tecnologie nei sistemi di comando e controllo nucleari; quelli appena elencati rappresentano elementi dirimenti nella competizione egemonica tra Stati Uniti e Cina. Una quantità così ingente di incertezza, declinata nella dimensione securitaria propria di ogni Stato, potrebbe in potenza condurre ad un’aspra destabilizzazione del contesto globale, con ripercussioni economiche e sociali di portata rilevante e con la configurazione di un concreto rischio di escalation militare: tutto ciò rappresenterebbe una severa minaccia alla stabilità strategica dell’ordine internazionale ed alla tenuta di tutte comunità.

Autore: Dott. Antonino Guarino

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *