internazionale 2.9.17
Le armi non devono decidere
The Guardian, Regno Unito
Il primo incontro del gruppo di lavoro delle Nazioni Unite sulla messa al bando dei sistemi d’arma robotici che possono agire autonomamente avrebbe dovuto concludersi il 25 agosto. Ma pochi giorni prima del suo inizio è stato cancellato, ufficialmente a causa della mancanza di fondi. In realtà la spiegazione più probabile è la mancanza di volontà politica. Preoccupate dalla decisione, più di cento persone coinvolte nello sviluppo dell’intelligenza artificiale su cui tali armi dovrebbero basarsi hanno pubblicato una lettera aperta in cui avvertivano: le armi autonome rappresenterebbero una terza rivoluzione degli armamenti, dopo la polvere da sparo e le armi atomiche. Hanno ragione. L’unica cosa più spaventosa di una macchina che non sa decidere da sola chi uccidere è una macchina che sa farlo. Ma la tecnologia necessaria è già alla portata di scienziati finanziati dalle forze armate statunitensi e di altri paesi, che hanno investito miliardi di dollari nello sviluppo dell’intelligenza artificiale. Alcune armi semiautonome esistono già. Quella che qualcuno ha definito “burocratizzazione” delle armi, cioè la definizione degli obiettivi in base a una gerarchia precisa, è già in atto. È impossibile invertire il progresso tecnologico. Chiedere agli stati e ai loro generali di rinunciare a un vantaggio militare in nome della morale è sempre stato problematico, anche se da più di un secolo esistono leggi internazionali sulla guerra. Le implicazioni etiche delle innovazioni che aumentano la distanza tra l’uomo e il conflitto sono oggetto di dibattito almeno dall’invenzione del cannone. Ma i tentativi di introdurre dei limiti hanno avuto successo soprattutto per le armi che non avevano il potenziale per determinare l’esito di un conflitto. La possibilità di eliminare l’intervento umano dalla decisione di uccidere qualcuno solleva questioni profonde a livello di etica e diritto internazionale. Gli attivisti per il controllo delle armi sperano di poter creare attraverso le Nazioni Unite una coalizione e una piattaforma con cui portare avanti una campagna per limitare le armi autonome. Hanno il sostegno degli scienziati che sanno come l’intelligenza artificiale può essere sviluppata, e come può forse imparare a svilupparsi da sola. L’opinione pubblica ha contribuito al successo delle campagne contro le mine antipersona e le bombe a grappolo. L’ordine mondiale non è mai stato così fragile dal 1945, e non sarà facile costruire un consenso. Ma è una causa che dev’essere portata avanti. gac