E’ l’anno della VR
Il 2020 oltre ad essere ricordato come l’anno della grande pandemia, della quarantena universale e del distanziamento sociale, probabilmente verrà ricordato anche come l’anno della VR. E’ probabilmente questo infatti il momento migliore per entrare nel mondo della realtà virtuale grazie all’arrivo sul mercato di visori di qualità eccezionale a prezzi tutto sommato accessibili e di titoli decisamente interessanti come Asgard’s Wrath. L’uscita di Half Life Alyx rappresenta poi, dopo 16 anni di attesa, l’anno zero della realtà virtuale. Il momento in cui l’esperienza VR supera per qualità generale, immersività, profondità del gameplay quella della produzioni tradizionali, regalandoci un titolo che segnerà la storia di questo nuovo modo di approcciarci al medium videoludico e non solo.
Tuttavia entrare in questo mondo ancora frammentato tra tante piattaforme può risultare spiazzante per un neofita, ed è per questo che proveremo in questa serie di guide a offrirvi una panoramica generale del mondo VR, accompagnandovi in questa esperienza che siamo sicuri vi sconvolgerà.
Passo numero 1: il Glossario della VR
Preliminarmente occorre imparare una serie di termini che vi torneranno utili più avanti per la scelta del vostro visore. Non tutti i visori, infatti, sono nati uguali e per poter scegliere quello più adatto a voi occorre prima documentarsi su alcuni termini piuttosto nuovi e propri di questa nuova tecnologia, sulle funzionalità e sui tipi di visore disponibili. In questo Glossario della VR proveremo a darvi le basi per poter poi valutare con maggiore consapevolezza, punti forti e deboli dei singoli dei singoli visori.
Stand-alone e Tethered
Un visore “stand alone” è un dispositivo che non ha bisogno di un collegamento ad un pc o ad un altro dispositivo per funzionare. Al suo interno infatti, sono presenti componenti di elaborazione come una CPU e una GPU, una memoria e una batteria e pertanto lo stesso può essere utilizzato in mobilità. Un esempio di visori di questo tipo sono Oculus Go e Oculus Quest, entrambi dotati di una cpu Snapdragon utilizzata negli smartphone (Snapdragon 821 per Oculus Go e Snapdragon 835 per Oculus Quest)
Un visore tethered, al contrario, è un visore che deve essere necessariamente collegato ad un PC o ad un altro dispositivo, come uno smartphone o una console, per funzionare. In sostanza, il visore è dotato di uno schermo, lenti ed altre tecnologie di visualizzazione, ma non di un sistema di elaborazione. Il collegamento può avvenire via cavo, oppure tramite dispositivi wireless. Esempi di questo tipo di visori sono il Valve Index, L’HTC Vive Cosmos e l’Oculus Rift S. Generalmente la qualità delle esperienze ottenibili con visori tethered è superiore, vista la maggiore potenza di elaborazione. D’altro canto, però, i visori tethered richiedendo un collegamento via cavo (salvo eccezioni come Htc Vive che dispone come accessorio di un modulo wireless) sono più complicati da gestire in casa.
3DOF e 6DOF
Il termine 3DOF sta per 3 degrees of freedom mentre al contrario 6DOF sta per sei gradi di libertà.
I controller con 3 gradi di libertà (3DoF) sono limitati al tracciamento rotazionale. I controller 3DoF non hanno tracciamento posizionale, il che significa che non possiamo raggiungere o muovere la mano avanti e indietro o su e giù. Avere un controller con solo 3DoF è come avere una mano e un polso senza un braccio. Esempi di controller di questo tipo sono i controller per Google Daydream, Samsung GearVR e Oculus GO
I controller con 6 gradi di libertà (6DoF) hanno sia tracking rotazionale, sia posizionale. A differenza dei controller con 3DoF che sono vincolati all’orientamento, i controller con 6DoF sono in grado di muoversi liberamente nello spazio 3D. Un controller 6DoF ci permette di muoverci con il controller in avanti, dietro le nostre spalle, muovere le mani sul nostro corpo o vicino al nostro viso. Per riprendere l’esempio di prima, con un controller 6DoF è come avere oltre alle mani anche le braccia. Il sistema 6DoF si applica anche alle cuffie e ai tracker aggiuntivi (ad es. piedi, e fianchi). Un controller 6DoF dovrebbe essere considerato il minimo sindacale per una esperienza VR immersiva. HTC Vive, i diversi Oculus Rift, Rift S, Oculus Quest, oltre naturalmente a Valve Index e Pimax, sono tutti dotati di controller 6DoF.
Lo stesso discorso fatto per i controller vale anche per il visore. Un visore 6DoF è in grado di riconoscere il soggetto anche se questi si muove avanti e indietro nello spazio, pertanto ci si può muovere nel mondo virtuale come ci si muove nella vita reale fermi restando i limiti dell’area tracciata; con un visore 3DoF sarà possibile solo guardarsi intorno da un punto fisso e nient’altro.
Tracking inside out – inside in
Per tracking si intende il tracciamento di un visore nello spazio. I sistemi di tracciamento sono due: Inside in, o tracciamento esterno, e Inside out, o tracciamento interno. Per tracciamento esterno, o inside in, si intende un sistema che funziona grazie a dei sensori esterni al visore (da uno fino a 4 nelle configurazioni più comuni, da fissare sulle pareti agli angoli dell’area di movimento) che misurano i movimenti dell’individuo. Questi sensori sono denominati in maniera diversa, base stations, lighthouse, beamer, o in italiano illuminatori. Lo standard è quello definito da SteamVR, tant’è che ad oggi tutti i principali visori VR fannoparte della categoria di visori SteamVR 1.0 o 2.0.
I primi visori VR consumer, come l’originale Oculus Rift, l’originale HTC VIVE e anche i più recenti Pimax 8KX e Valve Index, utilizzano tutti esclusivamente sistemi di tracciamento esterni (o inside in).
Il più grande pro del tracciamento esterno è che è il più preciso tra i due sistemi, ma costringe a fissare dei dispositivi nella stanza e quindi il visore è vincolato alla zona inizialmente scelta.
Per tracking inside out invece si intende un sistema di tracciamento presente sul dispositivo e che funziona generalmente con un sistema di telecamere poste direttamente sul visore. Il principale vantaggio è la maggiore portabilità e versatilità di questa soluzione, anche se ciò significa minore precisione rispetto ai sistemi inside in. La maggior parte dei visori VR di seconda generazione utilizzano ora il tracciamento inside-out, come l’Oculus Quest, Oculus Rift S e HTC VIVE Cosmos.
IPD o distanza interpupillare
Altro termine essenziale per avventurarsi nel mondo della realtà Virtual è IPD, un valore che sta ad indicare la distanza tra il centro delle pupille dei due occhi. Ovviamente questo valore non è uguale per tutti pertanto è fondamentale conoscere il proprio IPD perché da esso dipende la qualità dell’esperienza VR. Più questo corrisponde alla distanza tra il centro delle due lenti del visore, maggiore sarà la qualità visiva percepita. Al contrario se la distanza non è impostata correttamente l’immagine può risultare sfocata se non addirittura in grado di generare quello che viene definito Motion Sickness.
L’IPD è misurato in millimetri; potete misurarlo voi stessi usando un righello metrico o potete scaricare un’applicazione per telefono per farlo.
Screen Door Effect
L’effetto “screen door effect”, è chiamato così perché si ha l’impressione di guardare un’immagine da una zanzariera (screen door in inglese). Tale effetto è causato da una risoluzione non particolarmente alta di alcuni display, che visti da vicino consentono di distinguere i pixel e lo spazio tra di essi che disegna una vera e propria maglia, come una zanzariera. Si tratta di un effetto che può essere percepito in misura maggiore da alcuni individui, e in particolar modo quando si visualizzano sfondi monocromatici chiari, che mettono in risalto lo spazio inter pixel. Aumentare la risoluzione del pannello non è l’unica soluzione possibile per evitare lo screen door effect, fondamentale è anche infatti la gestione dei subpixels (vedi la voce successiva).
Subpixels
Ogni pixel dello schermo ha in realtà 3 sottopixel: uno rosso, uno verde e uno blu. Insieme, sono illuminati a diversi livelli per creare, in combinazione tra loro, un determinato colore. Tuttavia, solo perché i sub-pixel sono raggruppati logicamente all’interno di uno specifico pixel, non significa che non possano essere utilizzati in combinazione con i sub-pixel dei pixel adiacenti. Supponiamo di avere una linea retta di pixel. All’interno di ogni pixel avremo una linea rossa, poi verde, poi blu. Ciò significa che il blu del pixel n. 2 è accanto al rosso del pixel n. 3. Quindi si può combinare il blu del pixel numero 2 con il rosso e il verde del pixel numero 3 per creare un singolo “pixel” che supera i confini formali dei pixel. Questo attenua l’effetto screendoor perché permette di rompere il paradigma di una griglia rettangolare di pixel e di eliminare invece le linee rette e più scure attraverso il display. Per farvi un esempio pratico immaginate di sovrapporre ad una rete metallica, un’altra rete metallica identica ma posizionata in maniera leggermente sfalsata rispetto alla prima, e di guardarvi attraverso. I fori sembreranno ovviamente più piccoli.
Motion Sickness
E’ una sensazione che coinvolge, anche se in maniera sempre meno frequente, alcuni soggetti particolarmente sensibili alla VR e che comporta nausea, vertigini, disorientamento, sudore freddo. La causa più comune del motion sickness è causata da uno sfasamento tra il movimento percepito in vr e l’assenza di movimento del corpo. Il cervello si aspetta infatti che ad un movimento percepito come reale, corrisponda un movimento del corpo e questo genera confusione, causando tale stato. I moderni visori, se utilizzati in combinazione con software programmati nella giusta maniera, sono in grado di scongiurare questo disagio; E’ stato osservato, inoltre, che maggiore è la frequenza di aggiornamento del display , minore è l’incidenza di tale effetto sugli utilizzatori. I nuovi visori a 70-80 e addirittura 144hz come l’Index di Valve, dovrebbero scongiurare quasi del tutto tale effetto.
FOV
Acronimo di Field of View, ovvero Campo visivo, rappresenta l’estensione dell’immagine osservabile in un dato momento e da un punto fisso attraverso un visore VR. Più è ampio e vicino al campo visivo umano (circa 210°), più realistica sarà la percezione della scena. Ma il Fov, o campo visivo, ha una importante funzione anche nella percezione della distanza degli oggetti. Il cervello infatti ha tre modi per capire la distanza di un oggetto da un punto di osservazione: 1) conoscendo la dimensione originaria per esperienza pregressa, elabora la dimensione attuale percepita (un oggetto distante è ovviamente più piccolo ) e in questo modo può capire a che distanza si trova. 2) Il secondo metodo è attraverso un calcolo della velocità con cui un oggetto si muove sulla nostra retina, un oggetto distante si muove più lentamente di un oggetto vicino (un’auto a distanza sembra più lenta di un’auto vicina cosi’). 3) Il terzo metodo con cui il cervello elabora il concetto di distanza è dato dal fatto che i nostri occhi sono posti ad una distanza di circa 60-64 mm uno dall’altro. Questo consente al cervello di ottenere dai due occhi due immagini ad una diversa angolazione e quindi a carpirne un “modello in 3D” per così dire. Ma ciò è vero solo se l’oggetto è sufficientemente vicino; se infatti un oggetto è sufficientemente distante non avremo più due angolazioni dell’oggetto e quindi lo stesso ci apparirà piatto. Quindi il Fov oltre a maggiore immersività, in un visore è anche un concetto fondamentale anche per consentire al cervello di percepire le distanze.
Ciascun produttore ha una tecnologia diversa per migliorare il FOV. Le tecniche più utilizzate comportano l’utilizzo di lenti Fresnel, lenti a cerchi concentrici che consentono di migliorare il campo visivo fino a circa 90°, ma hanno il difetto di generare i cosiddetti “God Rays”, delle rifrazioni che formano come raggi di luce quando si osservano le parti più esterne della lente, soprattutto nelle scene più scure. In ogni caso, qualunque sia la lente utilizzata, l’immagine è quasi sempre migliore quando si osserva l’immagine al centro. Questo punto, in cui l’immagine è più chiara e priva di difetti, viene definito SweetSpot. Più è ampio lo sweet spot, ovvero il punto da cui è possibile osservare l’immagine senza distorsioni di alcun tipo, migliore è la qualità della lente.
Mura effect – Clouding
Se la vostra immagine sembra essere granulosa, soprattutto nelle scene più scure, o quando guardate ad esempio una immagine di un solo colore, ad esempio un gradiente grigio scuro, vi sembra di avere davanti a voi un vetro sporco e impolverato, avete dinanzi a voi il cosiddetto effetto MURA. L’effetto Mura, anche detto Clouding (sebbene quest’ultimo termine indichi una categoria di difetti più che uno specifico difetto visivo), è un termine generalmente usato per descrivere una immagine alterata causata da una illuminazione imperfetta del display. Questi effetti possono manifestarsi in singole aree o singoli pixel che sono più scuri o più chiari rispetto a tutti gli altri, mostrano un contrasto minore o semplicemente si discostano dagli altri nell’area adiacente. Di norma, questi problemi di incosistenza nel colore sono particolarmente evidenti nella riproduzione di immagini scure e in condizioni ambientali più scure. In generale però l’effetto mura è una problema connesso al design degli attuali schermi LCD, ma può manifestarsi anche con display OLED dove diventa addirittura più evidente rispetto ad uno display LCD (gli schermi di PSVR2, ad esempio, ne sono affetti in maniera evidente). A voler essere più chiari nessun display che funziona con retroilluminazione o con la oramai quasi del tutto superata side illumination – è privo di effetti Mura, tuttavia una migliore qualità del pannello LCD può ridurre in maniera evidente questo effetto.
Reprojection Rate o Riproiezione asincrona
La riproiezione asincrona è una tecnologia grafica che contribuisce a migliorare le prestazione del rendering in ambiente VR soprattutto quando il carico del sistema è molto elevato. Questa tecnologia permette di avere immagini in movimento con framerate costante e senza judder, soprattutto quando l’utente ruota la testa ed in questo modo contribuisce ad evitare il cosiddetto motion sickness.
Il meccanismo di funzionamento è il seguente: il sistema regola la posizione del frame renderizzato appena prima che venga visto dall’utente per tenere conto del movimento rotatorio probabile della testa dell’utente durante il rendering del frame. La parte ‘asincrona’ significa che la tecnologia utilizzerà sempre il frame renderizzato più recente, assicurando che anche se l’applicazione fa cadere un frame, il frame rate visibile dall’utente non diminuisce. In poche parole la tecnologia anticipa i movimenti dell’utente riproiettando il frame già renderizzato una seconda volta e in questo modo aumenta il frame rate e lo mantiene costantemente elevato. La riproiezione asincrona ha tre effetti principali: Assicura che il frame rate sperimentato dall’utente rimanga elevato, il che è fondamentale per il comfort dell’utente in VR. Riutilizza i frame quando l’applicazione non è in grado di farlo per una carenza di prestazioni del sistema o perchè la scena è troppo complessa; assicura che il movimento all’interno dell’applicazione sia fluido e non vi sia judder (artefatti grafici che si manifestano come una vibrazione dell’immagine). artefatti evidenti e causeranno disagio all’utente.
Image retention
Conosciuta anche come “persistenza dell’immagine”, è un fenomeno in cui l’immagine di un LCD rimane visibile dopo che il dispositivo è stato spento. La buona notizia è che la ritenzione dell’immagine è temporanea e di solito ritorna al suo stato originale dopo qualche utilizzo. E’ pertanto un fenomeno differente dal “burn-in” dei display al plasma o OLED, che tipicamente sono danni permanenti.
Eye Tracking e Foveated Rendering
Il foveated rendering è una tecnica di rendering che utilizza un eye tracker integrato in un headset VR per ridurre il carico di lavoro della GPU. In pratica, anzichè renderizzare ad alta risoluzione tutta l’immagine, si renderizza solo una determinata parte, quella visibile dall’utilizzatore. La variante meno sofisticata, chiamata fixed foveated rendering, era già conosciuta da tempo, e non utilizzando l’eye tracking renderizza in alta risoluzione soltanto la parte centrale dell’immagine, quella dove “statisticamente” si concentra l’attenzione dell’utilizzatore. In abbinata all abbinata all’eye-tracking, ovvero un sistema di telecamere che è in grado di determinare dove il giocatore sta guardando, è possibile concentrare tutta la potenza grafica per renderizzare l’immagine in quel punto, abbassando il dettaglio sulle aree non visibili o periferiche.
Sony utilizzerà il foveat rendering con Eye Tracking, nel suo prossimo visore PSVR2.
Nel prossimo articolo, entreremo nel vivo della questione, con una guida alla scelta del miglior visore per la VR per chi si appresta ad entrare in questo mondo per la prima volta.
Se il nostro glossario della VR vi è piaciuto, vi invitiamo a iscrivervi sui nostri canali social per discutere con noi di VR, videogames e tecnologia e per essere aggiornati con le nuove guide ed articoli sull’argomento
Facebook
Telegram
Youtube
Instagram
Twitter