Sono in molti ad aspettare con un certo timore la “singolarità”, ossia quel momento in cui la capacità di calcolo delle macchine sarà in grado di superare l’intelligenza umana. Be’, a quanto pare abbiamo fatto un altro passo in quella direzione. Stiamo parlando dell’intelligenza artificiale di Google, DeepMind.
A riportarlo è la prestigiosa New Scientist, che ha raccontato come l’IA di Google abbia imparato a finire 49 giochi di Atari, semplicemente guardandoli. Personalmente, lo trovo un risultato impressionante: ci sono molti giochi di Atari che avrei difficoltà a completare, e credo di essere in buona compagnia.
La notizia è un po’ inquietante, come quando il campione di scacchi Garri Kasparov venne sconfitto da un computer. La cosa che rende più affascinante la scoperta è che DeepMind è diventata così brava in alcuni giochi che è riuscita a battere i record stabilii dagli umani. Come se non bastasse, ha imparato autonomamente a usare le tecniche avanzate impiegate dai giocatori umani. Rispetto all’esperimento di Kasparov, il risultato è ancora più sorprendente, perché non vengono fornite le istruzioni del gioco all’IA.
Ecco la spiegazione del funzionamento fornita da New Scientist.
Al software non vengono dette le regole del gioco; invece, usa un algoritmo chiamato “rete neurale profonda” che esamina lo stato del gioco e capisce quali azioni producono il punteggio totale più alto. Le “reti neurali profonde” sono spesso usate per il riconoscimento delle immagini, ma DeepMind le ha combinate con un altra tecnica chiamata “apprendimento di rinforzo”, che ricompensa il sistema per compiere certe azioni, proprio come un giocatore umano viene ricompensato con un punteggio più alto quando sta giocando a un videogioco correttamente.
Esperimenti simili, come quello del già citato Kasparov, erano già stati tentati in passato, ma la differenza è che oggi l’IA può gestire una quantità di dati senza precedenti, acquisendo un comportamento che comincia a sembrare sempre più umano.