Corriere 16.4.18
La guerra automatica
di Massimo Gaggi
Missili
lanciati con precisione chirurgica su obiettivi militari. Niente «boots
on the ground», soldati che avanzano coi loro scarponi in territorio
nemico. Zero vittime da un lato e dall’altro. L’attacco lanciato da Usa,
Francia e Gran Bretagna per punire Assad dopo il bombardamento chimico
di Douma verrà forse archiviato come un avvertimento «muscolare» più che
come un vero e proprio atto di guerra. Ma è anche un’azione che ci
avvicina sempre di più allo scenario della «guerra automatica» verso il
quale ci sta portando lo sforzo tecnologico delle principali potenze del
Pianeta.
Non solo missili e droni, gli aerei-robot che già oggi sono
in grado di colpire ovunque: dagli arsenali e dai centri di ricerca
delle industrie tecnologiche più avanzate escono in continuazione
prototipi di droni sottomarini, navi da attacco in superficie e per la
caccia ai sommergibili prive di equipaggio, carri armati automatici e,
soprattutto, killer robot. Non siamo lontani dallo scenario di
Terminator : automi da schierare in battaglia più rapidi e potenti della
fanteria umana, destinata ad essere sbaragliata senza pietà. Il tutto
gestito da un’intelligenza artificiale sempre più progredita che una
volta impostata potrebbe prendere decisioni di vita e di morte in modo
autonomo, senza più interventi umani.
Scenari agghiaccianti che
pongono problemi inediti: dalla possibile perdita del controllo della
tecnologia da parte dell’uomo a quello della valutazione in termini
giuridici e anche politici delle responsabilità in un conflitto. Come
reagire se vieni colpito non dalle armi di uno Stato che ti dichiara
guerra, ma da un drone attivato in modo automatico da un sistema di
sorveglianza «intelligente» al manifestarsi di certe condizioni di
pericolo? Aumenterebbe esponenzialmente il rischio di scatenare un vero
conflitto perché si reagisce con troppa durezza a un attacco partito per
un errore. Ipotesi in parte ancora remote, in parte destinate a
concretizzarsi entro pochissimi anni e rispetto alle quali già dal 2013
si è messo in modo un movimento che chiede la messa al bando delle
cosiddette Laws, Lethal autonomous weapons systems , armi autonome
letali. Ma il rischio di un abbassamento della soglia di deterrenza è
già evidente: se vieni provocato, sarai più propenso a rispondere con le
armi se sai di poter attaccare senza subire perdite. Sono in molti a
ritenere che Londra e Parigi hanno deciso di non lasciare soli gli Stati
Uniti in Siria perché c’era la possibilità di conseguire il risultato
politico derivante da una dimostrazione di forza, senza rischiare
praticamente nulla, almeno sul campo di battaglia. Un vero antipasto di
guerra automatica. E anche un po’ virtuale, visto che dall’incrocio di
razzi, fake news e manovre di disinformazione, è venuta fuori l’accusa
dei russi secondo i quali i missili francesi non sono mai arrivati sul
bersaglio.
Nonostante tutti gli sforzi di chi cerca di fermare la
corsa verso la creazione di veri e propri eserciti robotizzati, le
possibilità di successo sono minime. Lanciata cinque anni fa con un
appello firmato da premi Nobel, scienziati come Steven Hawking e
imprenditori come Elon Musk, Steve Wozniak e Mustafa Suleyman di
Alphabet-Google, la campagna internazionale Stop Killer Robots ha
obbligato le potenze a confrontarsi spesso su questo problema in sede
Onu. Ma le cinque conferenze che l’Onu ha dedicato alla corsa verso la
guerra automatica (l’ultima pochi giorni fa a Ginevra) non hanno dato
risultati, anche se 22 Paesi si sono espressi ufficialmente contro.
Tutti
sono decisi a rifiutare ogni limite all’uso della tecnologia sul campo
di battaglia: l’America perché convinta di poter trarre vantaggio dalla
sua leadership tecnologica, Cina e Russia perché sperano di poter
colmare, il gap strategico che oggi le separa dagli Stati Uniti nelle
armi convenzionali. Ci sono stati casi, come quello delle mine
anti-uomo, in cui un accordo di messa al bando si è rivelato efficace.
Ma le potenze tecnologiche non vogliono sentir parlare di limiti per
l’intelligenza artificiale: bloccare la ricerca militare, dicono,
danneggerebbe anche quella civile. E nessuno accetta di legarsi le mani
quando nemmeno si sa bene in quale direzione evolverà la tecnologia.