Il quadro di riferimento normativo per l’evoluzione dell’intelligenza artificiale (IA), nelle sue molteplici applicazioni, è necessariamente di livello europeo. Nonostante la recente legislazione (AI Act) e gli sforzi in corso per ampliarla e aggiornarla, guardando allo scenario complessivo si deve constatare che manca ancora un mercato unico digitale continentale; questo di per sé rende impossibile realizzare l’obiettivo – già dichiarato come strategico – della “sovranità digitale”. La competitività in questo settore richiede, del resto, anche una presenza forte nel campo dell’hardware (in particolare nella microelettronica) sottostante ai rapidi progressi in corso nell’IA. Un’altra priorità è incentivare l’adozione di sistemi di intelligenza artificiale da parte delle aziende, comprese quelle di dimensioni medie e piccole.
I criteri fondamentali adottati dall’UE per regolamentare e orientare gli sviluppi dell’IA sono riassumibili in innovazione, trasparenza, sicurezza (“safety”). Si tratta di un approccio equilibrato, ma certamente di difficile realizzazione pratica e bisognoso di costante monitoraggio, adeguamenti e aggiornamenti, vista la natura esponenziale o comunque molto rapida di alcuni trend tecnologici sottostanti.
L’UE costituisce comunque il maggiore mercato digitale al mondo, a dispetto di una presenza che al momento non è di primissimo piano in termini di aziende leader nel settore – anche perché finora i maggiori protagonisti sono gli stessi (per lo più aziende statunitensi) che hanno sviluppato l’ecosistema digitale di internet, conservando al momento un ruolo predominante. Per ridurre tale divario è indispensabile una combinazione di investimenti pubblici e privati, oltre ad accordi transatlantici, e forse in ambito G7, per creare un contesto internazionale propizio all’ingresso e alla crescita di nuove aziende.
La velocità del cambiamento imposto da queste tecnologie è, in ogni caso, una sfida sia intellettuale e culturale che organizzativa: una vasta operazione educativa e formativa è necessaria per mettere gli utenti in condizione di muoversi in sicurezza negli ambienti digitali più avanzati. Per guidare l’introduzione prorompente dell’AI serve anche investire nella formazione dei lavoratori, il che naturalmente deve iniziare dalla scuola dell’obbligo, almeno per fornire conoscenze generali e strumenti semplici, in grado quantomeno ridurre i rischi di manipolazione degli utenti e consentire una “alfabetizzazione” diffusa.
Un secondo aspetto che si sta rivelando di difficile gestione è quello energetico, alla luce delle grandi quantità di energia richieste dal funzionamento delle più avanzate reti digitali. Si tratta di una questione che impone un certo ripensamento del rapporto tra rivoluzione digitale e ambientale, orientandosi verso tecnologie e metodi di utilizzo che siano sostenibili da tutti i punti di vista.
In parallelo, il mondo imprenditoriale sottolinea come l’incertezza normativa stia ostacolando l’adozione dell’IA da parte soprattutto delle aziende medie e piccole. Anche per quelle di dimensioni maggiori, un eccesso di adempimenti legali può diventare un costo aggiuntivo notevole, e il criterio che alcuni osservatori suggeriscono per evitare questo problema è la proporzionalità – facendo sì che l’adempimento normativo sia compatibile con il processo o il prodotto che si sta cercando di regolamentare.
In un tale quadro, il nodo di fondo è il rapporto tra governi e “big tech”, cioè l’intreccio tra scelte strategiche delle leadership politiche e legittimi interessi delle maggiori aziende, che finisce per determinare anche il contesto della competizione tra grandi potenze su scala globale, con inevitabili ripercussioni per la sicurezza e i conflitti (in atto e potenziali).
In chiave strettamente militare, il vero salto di qualità riguarda i sistemi autonomi, ma anche la diffusione di software in grado di raccogliere enormi quantità di informazioni (anche criptate) e di diffonderne altrettante allo scopo di danneggiare l’avversario. Questi due fattori possono realmente portare a un cambio di paradigma nella competizione strategica. E pongono una specifica sfida ai regimi democratico-liberali e alle società aperte, in virtù della loro resistenza ad aggirare il fattore umano nell’uso degli armamenti. È quindi necessario trovare un delicato equilibrio tra l’efficacia dei sistemi d’arma e la loro sicurezza in termini di controllo umano.
Del resto, anche nel settore della sicurezza, sia interna che internazionale, è necessario adottare un approccio olistico alle molte implicazioni dell’IA: in particolare, diritto ed etica —in quanto creazioni culturali legate indissolubilmente tanto alle pulsioni quanto alla razionalità — saranno parte integrante della gestione delle nuove tecnologie.