Corriere 16.4.18
La guerra automatica
di Massimo Gaggi
Missili
 lanciati con precisione chirurgica su obiettivi militari. Niente «boots
 on the ground», soldati che avanzano coi loro scarponi in territorio 
nemico. Zero vittime da un lato e dall’altro. L’attacco lanciato da Usa,
 Francia e Gran Bretagna per punire Assad dopo il bombardamento chimico 
di Douma verrà forse archiviato come un avvertimento «muscolare» più che
 come un vero e proprio atto di guerra. Ma è anche un’azione che ci 
avvicina sempre di più allo scenario della «guerra automatica» verso il 
quale ci sta portando lo sforzo tecnologico delle principali potenze del
 Pianeta.
Non solo missili e droni, gli aerei-robot che già oggi sono
 in grado di colpire ovunque: dagli arsenali e dai centri di ricerca 
delle industrie tecnologiche più avanzate escono in continuazione 
prototipi di droni sottomarini, navi da attacco in superficie e per la 
caccia ai sommergibili prive di equipaggio, carri armati automatici e, 
soprattutto, killer robot. Non siamo lontani dallo scenario di 
Terminator : automi da schierare in battaglia più rapidi e potenti della
 fanteria umana, destinata ad essere sbaragliata senza pietà. Il tutto 
gestito da un’intelligenza artificiale sempre più progredita che una 
volta impostata potrebbe prendere decisioni di vita e di morte in modo 
autonomo, senza più interventi umani.
Scenari agghiaccianti che 
pongono problemi inediti: dalla possibile perdita del controllo della 
tecnologia da parte dell’uomo a quello della valutazione in termini 
giuridici e anche politici delle responsabilità in un conflitto. Come 
reagire se vieni colpito non dalle armi di uno Stato che ti dichiara 
guerra, ma da un drone attivato in modo automatico da un sistema di 
sorveglianza «intelligente» al manifestarsi di certe condizioni di 
pericolo? Aumenterebbe esponenzialmente il rischio di scatenare un vero 
conflitto perché si reagisce con troppa durezza a un attacco partito per
 un errore. Ipotesi in parte ancora remote, in parte destinate a 
concretizzarsi entro pochissimi anni e rispetto alle quali già dal 2013 
si è messo in modo un movimento che chiede la messa al bando delle 
cosiddette Laws, Lethal autonomous weapons systems , armi autonome 
letali. Ma il rischio di un abbassamento della soglia di deterrenza è 
già evidente: se vieni provocato, sarai più propenso a rispondere con le
 armi se sai di poter attaccare senza subire perdite. Sono in molti a 
ritenere che Londra e Parigi hanno deciso di non lasciare soli gli Stati
 Uniti in Siria perché c’era la possibilità di conseguire il risultato 
politico derivante da una dimostrazione di forza, senza rischiare 
praticamente nulla, almeno sul campo di battaglia. Un vero antipasto di 
guerra automatica. E anche un po’ virtuale, visto che dall’incrocio di 
razzi, fake news e manovre di disinformazione, è venuta fuori l’accusa 
dei russi secondo i quali i missili francesi non sono mai arrivati sul 
bersaglio.
Nonostante tutti gli sforzi di chi cerca di fermare la 
corsa verso la creazione di veri e propri eserciti robotizzati, le 
possibilità di successo sono minime. Lanciata cinque anni fa con un 
appello firmato da premi Nobel, scienziati come Steven Hawking e 
imprenditori come Elon Musk, Steve Wozniak e Mustafa Suleyman di 
Alphabet-Google, la campagna internazionale Stop Killer Robots ha 
obbligato le potenze a confrontarsi spesso su questo problema in sede 
Onu. Ma le cinque conferenze che l’Onu ha dedicato alla corsa verso la 
guerra automatica (l’ultima pochi giorni fa a Ginevra) non hanno dato 
risultati, anche se 22 Paesi si sono espressi ufficialmente contro.
Tutti
 sono decisi a rifiutare ogni limite all’uso della tecnologia sul campo 
di battaglia: l’America perché convinta di poter trarre vantaggio dalla 
sua leadership tecnologica, Cina e Russia perché sperano di poter 
colmare, il gap strategico che oggi le separa dagli Stati Uniti nelle 
armi convenzionali. Ci sono stati casi, come quello delle mine 
anti-uomo, in cui un accordo di messa al bando si è rivelato efficace. 
Ma le potenze tecnologiche non vogliono sentir parlare di limiti per 
l’intelligenza artificiale: bloccare la ricerca militare, dicono, 
danneggerebbe anche quella civile. E nessuno accetta di legarsi le mani 
quando nemmeno si sa bene in quale direzione evolverà la tecnologia.
 
