domenica 12 giugno 2016

Il Sole Nova 12.6.16
L’intelligenza artificiale ha il suo lato oscuro
Facebook, Microsoft e Google sono già pronte ma il vero problema è il controllo umano di questi algoritmi
di Biagio Simonetta

Intriga e preoccupa, sorprende ma a tratti fa paura. L'intelligenza artificiale è senza alcun dubbio l'evoluzione più interessante degli ultimi tempi. I progetti basati sugli algoritmi in grado di apprendere si moltiplicano, le big company investono cifre importanti per assicurarsi startup e software capaci di far ragionare le macchine come una mente umana. Sullo sfondo di questo entusiasmo collettivo, però, aleggia l'ombra pesante della sicurezza. L'intelligenza artificiale è sicura o pericolosa? Una risposta corretta, probabilmente, non c'è. Perché a quanto pare sa essere sicura e pericolosa allo stesso tempo. Partiamo dalla sicurezza.
Mikko Hypponen, Chief Research Officer di F-Secure, è uno dei massimi esperti mondiali di sicurezza informatica. A lui abbiamo chiesto cosa pensa dell'intelligenza artificiale applicata alla cybersecurity e quali sviluppi intravede in questo senso. Domande davanti alle quali l'informatico di Helsinky non si è tirato indietro, prefigurando un futuro tutt'altro che scontato: «Il motivo per cui abbiamo vulnerabilità della sicurezza nei software – ha detto Hypponen a Nòva - è perché i programmatori commettono errori». Secondo Hypponen «finché i codici saranno scritti dagli esseri umani, esisteranno sempre i bug». E siccome i bug sono le strade preferenziali per fare un exploit del sistema, la soluzione è presto detta: «È ovvio. Bisogna liberarsi dei programmatori e rimpiazzarli con un sistema di Intelligenza Artificiale che non commette errori, e se ne commette si tratta di errori così complicati e complessi che gli umani non riescono a sfruttarli in alcun modo». Secondo l'esperto finlandese «questa potrebbe sembrare una grande soluzione, ma se ci pensate bene è una prospettiva veramente spaventosa...». Appunto, lo spavento. Una tematica che nelle ultime settimane sta facendo discutere, è proprio quella che ritiene che l'intelligenza artificiale sia un vero e proprio pericolo. Una macchina in grado di apprendere come una mente umana, potrebbe rivelarsi una minaccia all'apice della sua evoluzione. I cosiddetti “AI agents”, potrebbero un giorno rivoltarsi contro gli esseri umani, magari a causa dell'intrusione di un hacker. E per quanto la minaccia possa sembrare da film di fantascienza, i big del mondo tecnologico stanno lavorando per non correre rischi. Google ha progettato un metodo che - qualora ce ne fosse bisogno – è in grado di interrompere il processo di auto-apprendimento dei sistemi artificiali. Un modo per spegnere la macchina, insomma.
Gli scienziati londinesi di DeepMind - laboratorio acquisito da Google un paio d'anni fa e famoso per aver creato la macchina che ha battuto campione mondiale di Go, Lee Sedol – hanno lavorato insieme all'Università di Oxford al processo di spegnimento gli algoritmi basati su reti neurali. Va detto che esistono già alcune tipologie di algoritmi con predisposizione alla disabilitazione per ragioni di sicurezza. È il caso di Q-learning, per esempio, algoritmo molto diffuso che consente a un sistema di apprendimento automatico di adattarsi all'ambiente che lo circonda migliorando la scelta delle azioni da eseguire. Ma nella maggior parte dei casi, gli AI agent non sono controllabili. E il lavoro di DeepMind è concentrato proprio su queste ipotesi. Oggi da Google sono certi di poter spegnere l'intelligenza artificiale. Almeno in determinati casi. I ricercatori londinesi hanno confermato di aver creato una sorta di “pulsante rosso” che serve da interruttore. Un interruttore azionabile solo da un essere umano. Rimane da capire se questa soluzione sia valida per tutti i tipi di algoritmi.
L'intelligenza artificiale, insomma, ha il suo lato pericoloso. E in questa direzione, durante gli ultimi mesi, sono arrivate le posizioni di alcuni big del mondo hi-tech. Elon Musk, Ceo di Tesla l'ha definita «più pericolosa del demonio». Bill Gates, fondatore di Microsoft, ha detto espressamente che «va controllata». Dichiarazioni di rito che però cozzano pesantemente con le azioni, dato che per l'evoluzione dell'intelligenza artificiale è proprio dalla Silicon Valley che premono il piede sull'acceleratore.