Il Sole Nova 12.6.16
L’intelligenza artificiale ha il suo lato oscuro
Facebook, Microsoft e Google sono già pronte ma il vero problema è il controllo umano di questi algoritmi
di Biagio Simonetta
Intriga
e preoccupa, sorprende ma a tratti fa paura. L'intelligenza artificiale
è senza alcun dubbio l'evoluzione più interessante degli ultimi tempi. I
progetti basati sugli algoritmi in grado di apprendere si moltiplicano,
le big company investono cifre importanti per assicurarsi startup e
software capaci di far ragionare le macchine come una mente umana. Sullo
sfondo di questo entusiasmo collettivo, però, aleggia l'ombra pesante
della sicurezza. L'intelligenza artificiale è sicura o pericolosa? Una
risposta corretta, probabilmente, non c'è. Perché a quanto pare sa
essere sicura e pericolosa allo stesso tempo. Partiamo dalla sicurezza.
Mikko
Hypponen, Chief Research Officer di F-Secure, è uno dei massimi esperti
mondiali di sicurezza informatica. A lui abbiamo chiesto cosa pensa
dell'intelligenza artificiale applicata alla cybersecurity e quali
sviluppi intravede in questo senso. Domande davanti alle quali
l'informatico di Helsinky non si è tirato indietro, prefigurando un
futuro tutt'altro che scontato: «Il motivo per cui abbiamo vulnerabilità
della sicurezza nei software – ha detto Hypponen a Nòva - è perché i
programmatori commettono errori». Secondo Hypponen «finché i codici
saranno scritti dagli esseri umani, esisteranno sempre i bug». E siccome
i bug sono le strade preferenziali per fare un exploit del sistema, la
soluzione è presto detta: «È ovvio. Bisogna liberarsi dei programmatori e
rimpiazzarli con un sistema di Intelligenza Artificiale che non
commette errori, e se ne commette si tratta di errori così complicati e
complessi che gli umani non riescono a sfruttarli in alcun modo».
Secondo l'esperto finlandese «questa potrebbe sembrare una grande
soluzione, ma se ci pensate bene è una prospettiva veramente
spaventosa...». Appunto, lo spavento. Una tematica che nelle ultime
settimane sta facendo discutere, è proprio quella che ritiene che
l'intelligenza artificiale sia un vero e proprio pericolo. Una macchina
in grado di apprendere come una mente umana, potrebbe rivelarsi una
minaccia all'apice della sua evoluzione. I cosiddetti “AI agents”,
potrebbero un giorno rivoltarsi contro gli esseri umani, magari a causa
dell'intrusione di un hacker. E per quanto la minaccia possa sembrare da
film di fantascienza, i big del mondo tecnologico stanno lavorando per
non correre rischi. Google ha progettato un metodo che - qualora ce ne
fosse bisogno – è in grado di interrompere il processo di
auto-apprendimento dei sistemi artificiali. Un modo per spegnere la
macchina, insomma.
Gli scienziati londinesi di DeepMind -
laboratorio acquisito da Google un paio d'anni fa e famoso per aver
creato la macchina che ha battuto campione mondiale di Go, Lee Sedol –
hanno lavorato insieme all'Università di Oxford al processo di
spegnimento gli algoritmi basati su reti neurali. Va detto che esistono
già alcune tipologie di algoritmi con predisposizione alla
disabilitazione per ragioni di sicurezza. È il caso di Q-learning, per
esempio, algoritmo molto diffuso che consente a un sistema di
apprendimento automatico di adattarsi all'ambiente che lo circonda
migliorando la scelta delle azioni da eseguire. Ma nella maggior parte
dei casi, gli AI agent non sono controllabili. E il lavoro di DeepMind è
concentrato proprio su queste ipotesi. Oggi da Google sono certi di
poter spegnere l'intelligenza artificiale. Almeno in determinati casi. I
ricercatori londinesi hanno confermato di aver creato una sorta di
“pulsante rosso” che serve da interruttore. Un interruttore azionabile
solo da un essere umano. Rimane da capire se questa soluzione sia valida
per tutti i tipi di algoritmi.
L'intelligenza artificiale,
insomma, ha il suo lato pericoloso. E in questa direzione, durante gli
ultimi mesi, sono arrivate le posizioni di alcuni big del mondo hi-tech.
Elon Musk, Ceo di Tesla l'ha definita «più pericolosa del demonio».
Bill Gates, fondatore di Microsoft, ha detto espressamente che «va
controllata». Dichiarazioni di rito che però cozzano pesantemente con le
azioni, dato che per l'evoluzione dell'intelligenza artificiale è
proprio dalla Silicon Valley che premono il piede sull'acceleratore.