Proprio ieri parlavamo di come l’animazione 2D potrebbe incontrare la realtà virtuale. Ma non dimentichiamoci, naturalmente, che esiste anche l’animazione 3D. Ed esistono giganti come Pixar che l’hanno trasformata in una forma d’arte. Come reagireste se vi dicessimo che, in un giorno molto vicino, potrete nuotare negli oceani assieme a Marlin e Dory? O rimpicciolirvi e cucinare gourmet assieme a Remy? Un sogno, dite? No, perché sta per diventare la realtà. La notizia è appena stata data in quel del SIGGRAPH, la più importante manifestazione dedicata alla grafica CGI, nel corso di un afterparty di Pixar. E ci ha messo lo zampino Google.
Un software engineer della compagnia, Mach Kobayashi, ha infatti presentato un modo per renderizzare la grafica in VR, usando il software di modellazione proprietario di Pixar, il famoso Renderman. Il contesto era un tipico meeting di modellatori Renderman, che si tiene solitamente al SIGGRAPH, e Kobayashi era la persona più indicata a presentare la novità, avendo già lavorato come un Effects Animator in Pixar. Al momento si tratta di una soluzione per soli addetti ai lavori, ma l’implementazione è comunque abbastanza elementare e potrebbe aprire quindi a un supporto più user friendly. Attualmente è infatti necessario conoscere un po’ di codice, capire come funzionano le immagini stereo omnidirezionali, e il ray tracing.
Il ray tracing è una tecnica per generare un’immagine tracciando il percorso della luce attraverso i pixel, lungo il piano di un’immagine, simulando gli effetti dei suoi incontri con gli oggetti virtuali. Questa tecnica di rendering è capace di produrre un livello molto alto di realismo. Normalmente, per renderizzare un 2D si inizia con una sola telecamera, dopodiché lo sviluppatore applica il ray tracing su tutto. Per ottenere lo stereo, si fa praticamente la stessa cosa, ma usando due telecamere invece di una, il che darà origine a un effetto 3D.
A questo punto, bisogna rendere immersiva l’immagine e generare un rendering omnidirezionale. Per riuscire in questo intento, lo sviluppatore deve prendere la “telecamera” e metterla al centro della stanza. Successivamente, dovrà eseguire il ray tracing all’interno di una sfera lungo tutto l’ambientazione, in modo da far sentire lo spettatore come se si sentisse all’interno. Infine, bisogna rendere il tutto stereo, posizionando una telecamera ed eseguendo il ray tracing in cerchio da due punti per sezione. Il diagramma dovrebbe spiegare meglio quanto espresso da Kobayashi. Per far funzionare tutto ciò in Renderman, lo sviluppatore dovrà poi prendere la scena e piazzare la telecamera al di fuori, piuttosto che all’interno. Poi, dovrà inserire un piano quadrato con uno shader attaccato di fronte alla scena, da cui partirà il ray tracing.
Renderman infatti permette un incredibile grado di verosimiglianza rispetto ad altri software già impiegati nella VR, come ad esempio Unreal Engine (sebbene, di contro, comporti un costo computazionale piuttosto alto). Se quindi non si adatta bene alle applicazioni real-time, come i videogiochi, è perfetto per creare animazioni ed effetti speciali. Il ray tracing permette inoltre di simulare una vasta gamma di effetti ottici, come il riflesso e la rifrazione, nonché i fenomeni di dispersione (come l’aberrazione cromatica). Il che si traduce in una maggiore fedeltà visiva e, di conseguenza, in un formidabile senso di presenza.
Confusi dalle troppe informazioni? Be’, tutto quello che a noi serve sapere è che: SI. PUÒ. FARE. Si tratta, nonostante le apparenze, di un workaround semplice (be’, a patto che sappiate usare Renderman!) ma brillante e che, soprattutto, ha il potenziale di ispirare i geniali animatori Pixar a realizzare dei contenuti in realtà virtuale. Questa scoperta potrebbe peraltro essere utile nella convergenza tra la VR e l’animazione, e chissà che anche Oculus Story Studio non tragga vantaggio dalla possibilità di usare Renderman. La prospettiva di poter usare il software che ha creato pellicole visivamente impressionanti come Up o Wall-E è del resto esaltante e, considerato che Renderman è disponibile gratuitamente, questo potrebbe dare il via a una nuova ondata di content creator al lavoro sulla VR.
Il sasso è stato lanciato e sento che la rivoluzione è alle porte. Non solo, Kobayashi ha messo a disposizione tutta la documentazione su Google Drive. Ora, non abbiamo più scuse!