Vai al contenuto

Il nostro futuro artificiale

    • Ricerca
    • Research
    • 19 Marzo 2024
    • Aspenia 1/2024
    • Marzo 2024
    • 19 Marzo 2024

    Aspenia, la rivista trimestrale di Aspen Institute Italia diretta da Marta Dassù, è stata fondata nel 1995 e, dal 2002, è pubblicata da Il Sole 24 Ore. Al numero in uscita nel mese di marzo “Il nostro futuro artificiale” hanno contribuito tra gli altri Yuval Noah Harari, Maurizio Ferraris, Pierluigi Contucci, Daron Acemoglu e Simon Johnson, Massimo Gaggi, Mariarosaria Taddeo, William Jones, Maurizio Mensi, Giusella Finocchiaro, Alessandro Aresu, Tanya Singh e Pramit Pal Chaudhuri, Carlo Jean, Alberto Mattiacci, Luca De Biase, Gianni Riotta e Federica Urzo. 

    Ci sono i pessimisti, o quantomeno quelli fortemente scettici: l’Intelligenza Artificiale costituisce un pericolo e il suo rapido sviluppo va frenato per salvaguardare il controllo umano sul proprio futuro. E ci sono poi gli ottimisti: non esiste una vera minaccia perché, almeno allo stato attuale, un software digitale non è un organismo e, dunque, non ha desideri né teme di essere privato di qualcosa. Oppure c’è una terza via: siamo di fronte a un tipo di intelligenza profondamente diversa da quella umana, a cui non dovremmo applicare gli stessi parametri. 

    Quella che oggi chiamiamo “Intelligenza Artificiale Generativa”viene spesso accostata alle nuove forme incentrate sull’interazione linguistica come nel caso del famoso ChatGPT, che stimola la percezione di una macchina creativa, quasi con la capacità di immaginare. Una cosa poi da non dimenticare: l’IA è stata “selezionata” dall’intelligenza umana, e qualunque possano essere gli sviluppi futuri, perfino quelli parzialmente al di fuori del nostro diretto controllo, quel legame tra umano e artificiale resterà anch’esso inscindibile. L’IA generativa è però quasi sfuggente per gli stessi ingegneri che l’hanno programmata; è un vero enigma per chi dovrebbe metterla sotto controllo mediante regole giuridiche e procedure amministrative. 

    Questo vale, a maggior ragione, per i possibili accordi internazionali: è più facile contare vettori e testate nucleari che quantificare le capacità “generative” di un software che usa magari grandi server dislocati in più luoghi e che accede a un immenso cloud. Parallelamente alla legittima ricerca di accordi tra Stati per la gestione e il controllo delle nuove tecnologie, ci si può aspettare comunque una dinamica competitiva di potenza che potrebbe facilitare un certo bilanciamento, per quanto precario. Basti pensare alla natura profondamente politica dei rischi e delle opportunità legati all’IA in chiave interna agli Stati: la Cina, come molti altri regimi autoritari e illiberali, vede nelle nuove tecnologie digitali soprattutto uno strumento ulteriore di controllo della sua stessa popolazione, mentre i paesi democratico-liberali cercano un delicato equilibrio tra competitività economica, logiche di mercato e tutela dei diritti civili. Queste prospettive radicalmente differenti si riverberano poi sui negoziati internazionali, rendendo difficile un consenso su standard comuni.

    Resta il fatto che dovremo riflettere su come limitare i rischi collettivi e tutelare i diritti degli individui. Dal punto di vista normativo l’Unione Europea ha compiuto un primo passo importante, basato sui livelli di rischio dei vari sistemi di IA nelle loro applicazioni al mercato unico. L’industria europea peraltro ha alcune importanti nicchie di eccellenza, ma continua a scontare un divario competitivo rispetto ai grandi attori americani e asiatici. Anche se ci saranno aggiustamenti, precisazioni e aggiornamenti resta l’impressione che, nell’approccio europeo, il tema “rischio” prevalga nettamente su quello delle opportunità. Pur arrivando a diffondere un messaggio pubblico quasi del tutto basato sui pericoli e sul lato oscuro delle nuove tecnologie, non si arriva però a parlare di freno allo sviluppo dell’IA. 

    Le varie applicazioni dell’IA potrebbero portare alla perdita di controllo, quella che i tecnologi hanno denominato “singolarità”. Per affrontare questa sfida davvero esistenziale Aspenia ritiene che si debba evitare un atteggiamento apocalittico o disfattista, partendo invece dalla questione fondamentale, dal concetto stesso di “intelligenza”: tutt’altro che univoco e condiviso perfino per i neurobiologi, oltre che per psicologi e filosofi. L’intelligenza umana è sociale, e non soltanto individuale; ne deriva che storicamente il maggiore punto di forza evolutivo della nostra specie è stata la cultura, cioè la capacità di tramandare le conoscenze e dunque di edificare nuove idee sulle idee sviluppate da altri individui. 

    Come dice Patrick Tort “per l’umanità in termini semplificati, la selezione naturale seleziona la civilizzazione”, una dinamica che consente di tenere assieme la “singolarità umana”, l’inscindibile legame con i fattori biologici e l’insieme della natura. Quindi altrettanto importante è una visione umanistica della scienza – della scienza pura, prima ancora che di quella applicata – fondata sull’assunto che il metodo scientifico scaturisce proprio dal cervello umano in quanto modo specifico di guardare alla “natura” – essa stessa una definizione culturale e dunque, in buona misura, una creazione umana. È un campo in cui Aspen Italia lavora ormai da diversi anni, insieme ad Aspen USA, con un programma specifico sull’importanza dell’investimento nella “scienza pura”.

    Come vale per la clava improvvisata che viene brandita dalla grande scimmia di “2001: Odissea nello spazio”, con lo stesso strumento si può rompere un oggetto, uccidere un proprio simile, migliorare le condizioni di vita, costruire astronavi. Il modo specifico in cui la rivista cerca sempre di utilizzare l’intelligenza individuale e aggregata dei nostri autori è tutto sommato fiducioso nel progresso. E Aspenia resta di questa idea.