La ricerca per tutto ciò che riguarda la realtà virtuale si muove in centinaia di direzioni diverse. L’interazione con il mondo di gioco è diventata, nel corso del tempo, estremamente complessa: possiamo spostare oggetti, raccoglierli, lanciarli, riposizionarli, ruotarli, combinarli, distruggerli, cambiarne forma, dimensione, colore e molto altro. I nostri sviluppatori, quindi, non sono nuovi a tutte queste dinamiche, ma con la realtà virtuale sono cambiate molto cose, non tanto le dinamiche dei vari elementi, ma la maniera con cui ci interagiamo. Sotto questo aspetto, si è lavorato molto, e i risultati sono davvero incredibili se si pensa che fino a pochi anni fa la VR era ancora considerata fantascienza. Ma cosa può fare invece la realtà aumentata? La nostra sorellina più giovane ha delle notevoli limitazioni: mentre nella VR tutti gli oggetti con cui interagiamo sono virtuali, l’AR include anche molti elementi reali, che si limitano, nella maggior parte dei casi, a fare da sfondo a i vari elementi virtuali. Questo rappresenta un problema che limita molto il potenziale della realtà aumentata: l’essere umano infatti comprende le dinamiche e le caratteristiche di un oggetto, spesso, interagendoci direttamente, cosa che attualmente non è possibile fare.
Ed è qui che il MIT (Massachusetts Institute of Technology) nello specifico, il reparto Computer Science and Artificial Intelligence Laboratory, arriva in nostro soccorso elaborando un sistema estremamente ingegnoso per permetta all’utente di interagire non solo con gli elementi virtuali, ma anche con quelli reali.  Il merito è di Abe Davis, che in origine aveva elaborato questa idea pensando alle sue applicazioni nei video, ma ben presto si è reso conto che questa sua invenzione rappresenta un enorme passo in avanti per l’AR. La tecnica si chiama Interactive Dynamic Video (IDV) e anche se potrebbe essere un pò difficile da capire, il simpatico video qui sopra, realizzato dallo stesso Abe, eliminerà ogni dubbio. Tutto questo è reso possibile dalle vibrazioni. Scelto l’oggetto di nostro interesse, basterà filmarlo per pochi secondi mentre vibra, magari colpendo il tavolo su cui è posizionato, o grazie ad un leggero soffio di vento, dipende molto da cosa abbiamo preso in esame, ed un algoritmo analizzerà le vibrazioni compiute dall’oggetto per elaborare delle proprietà fisiche simulate da applicare ad esso in un IDV. Il risultato, è un’immagine dell’oggetto con cui è possibile interagire in maniera realistica. Tutto ciò è già sorprendente di suo, ma la cosa diventa ancora più interessante quando facciamo interagire un elemento virtuale con uno reale. Le applicazioni di questa tecnologia non interessano solo la realtà aumentata, ma anche tutto ciò che comprende la realizzazione di effetti speciali a basso costo per video e film, e la cosa bella, è che Abe ha utilizzato una semplicissima videocamera: niente attrezzatura costosa, solo un computer ed una normale videocamera.
Abe ha coniato quindi un termine per definire la realtà aumentata che sfrutta questo sistema per rendere interattivo l’ambiente: Dynamic Augmented Reality. Tutti gli appassionati di Pokémon Go avranno già provato ad immaginare una versione del gioco in cui i Pokémon non si limitano a starsene sospesi a mezz’aria, ma in qualche modo l’ambiente viene influenzato da forze virtuali applicati da loro. Ebbene, Abe ci ha già pensato, risparmiandovi lo sforzo! Certo, questo vuol dire dover riprendere ogni singolo elemento del mondo esterno in ogni possibile angolatura e farlo elaborare dal nostro algoritmo, ma voglio rivelarvi un segreto: è un’impresa disumana e attualmente impossibile. Ciononostante, nulla vieta che l’IDV possa essere un’incredibile pedana di lancio per sviluppare un sistema che permetta di riconoscere una serie di elementi reali prestabiliti, ed applicare una fisica un pò più approssimata. Auguriamo ad Abe buona fortuna col suo lavoro, perchè potrebbe rappresentare una vera rivoluzione per la realtà aumentata.