Quella che doveva essere una semplice chiacchierata/intervista in quel di AMD si è trasformata, con mia grande sorpresa, in un interessantissimo briefing in cui, alla presenza di Terry Makedon e Sasa Marinkovic, rispettivamente responsabile della creazione dei software di riferimento AMD e responsabile marketing sezione realtà virtuale AMD, sono stato “introdotto” al mai tanto attuale tema della realtà virtuale e agli sforzi profusi dal produttore statunitense al fine di progredire in detto ambito. Vediamo dunque in dettaglio quanto presentato in quel di Colonia.
[adinserter block=”1″]
Da un paio di anni a questa parte non si fa altro che parlare di realtà virtuale, fenomeno visto dai più, a ragione visto il bombardamento mediatico, esclusiva di realtà quali Oculus Rift e, seppure limitato in ambito console, Project Morpheus.
Qui alla GamesCom alcuni miei colleghi hanno avuto la fortuna di provare svariati headset, oltre ai due blasonati e sopraccitati device, spiccava la presenza di HTC con il suo VIVE e quella, mancata purtroppo per motivi non dipendenti dai produttori, dell’OSVR made in Razer. Campo di applicazione principale di queste realtà, vista anche la situazione in cui sono state mostrate, è (ovviamente) il gaming; AMD ha invece aperto gli occhi sulla realtà sottostante la fase “consumer” di questo fenomeno spiegando come, che si parli di dinamiche inerenti il gaming o altre applicazioni “real-life” della realtà virtuale, nessuno degli headset presenti alla kermesse tedesca fosse pronto per un debutto nel mercato di massa: ma procediamo con ordine.
Prendendo ispirazione dalle parole di Terry Makedon…
“La realtà virtuale come la concepiamo in questo momento è già cosa passata: il compito di AMD non è quello di rappresentare la realtà in ambito virtuale ma quello di far vivere agli utenti esperienze di realtà virtuale verosimili, portando le stesse nella vita di tutti i giorni e facendo percepire nettamente la presenza di questa realtà alternativa”
…si giunge all’evoluzione degli studi, in materia di realtà virtuale, che da oltre 20 anni AMD sta portando avanti al fine di raggiungere l’obiettivo sopraccitato. Partendo da una base che affonda le radici nell’accuratezza dei rendering 2D, si è passati alla stessa in ambito 3D, ad un uso degli shaders adatto all’uopo, ad un rendering basato sulla fisica degli elementi renderizzati per giungere poi al fotorealismo in ambito di realtà virtuale. Fine? Nemmeno per sogno.
Gli headset più avanzati (dunque Project Morpheus e HTC Vive) riescono a raggiungere una risoluzione target di 1K per singolo occhio che, pur garantendo una sorta di verosimiglianza fotografica dell’immagine renderizzata, è ben lontana dall’obiettivo di “immersione” cui Makedon faceva riferimento poc’anzi. Per ottenere infatti un’esperienza virtuale verosimile e per realizzare un ambiente virtuale percepibile nettamente, e senza differenza alcuna, dall’utente è necessario raggiungere la risoluzione target di 16k (si, SEDICI K) per singolo occhio, traguardo ottenibile esclusivamente con una debita ottimizzazione di cicli di lavoro di CPU, GPU e l’implementazione di un meccanismo di tracking “sensoriale” atto a garantire l’assenza assoluta di input-lag nell’utilizzo del device stesso.
Ciò a causa dell’elevata ampiezza del campo visivo umano, se comparato alla visione “imposta” dallo schermo televisivo; le condizioni ideali per ottenere un livello di immersività tale da garantire la verosimiglianza dell’esperienza VR proposta porteranno dunque a dover considerare 120° di campo visivo orizzontale e 135° di campo visivo verticale come valori irrinunciabili: aggiungendo al tutto un tempo di latenza massimo di 20ms si può ben comprendere il perché dell’impossibilità, data dalla tecnologia attuale, a fornire una esperienza scevra da difetti.
Tenere conto dei valori citati fino ad ora (risoluzione per occhio, campo visivo orizzontale/verticale e tempo di latenza massimo) ci fornisce un quadro preciso della sfida che gli ingegneri AMD stanno affrontando per giungere al loro traguardo: allo spostamento, seppur minimo, di uno qualsiasi di questi valori dovrà corrispondere una taratura (in tempo reale) di tutti gli altri parametri. Gli episodi di “desincronizzazione” dal virtuale (motion sickness in primis) sono da additare, per l’appunto, ad una mancanza di ottimizzazione del codice ed alla necessità di una incredibile potenza hardware atta a “muovere” tutto questo sistema senza tentennamenti di sorta: si prevede che, pur settando i limiti di visione ai valori sopraindicati, la risoluzione target di 16K per singolo occhio potrà essere raggiunta nei prossimi dieci anni.
Risoluzione a parte, l’altro elemento necessario ai fini di una esperienza VR credibile è la latenza. La latenza in termini di realtà virtuale viene comunemente identificata come “MTP” (Motion To Photon), ovvero il tempo intercorso tra l’input di informazioni (come il movimento della testa ed il contestuale cambio di angolo di visione) ed il momento in cui il set di pixel ad altissima risoluzione direttamente correlato a questo input verrà mostrato a schermo. L’importanza di questo fattore è vitale: se infatti è possibile scalare la grafica per adattare il sistema di riferimento ai limiti computazionali delle attuali macchine da gioco o dei sistemi di riferimento, nessun compromesso è fattibile se si parla di tempo di latenza GPU -> Display.
Il contenimento della latenza MTP nel target dei 20ms è necessario al fine dell’ottenimento di una esperienza VR credibile e verosimile: qualsiasi difformità porterà sia ad esperienze fallate e male ottimizzate che, in primis, a malori derivanti da una “desincronizzazione” dalla simulazione target (disorientamento e motion sickness). La latenza MTP è un valore composito formato da Frame Latency (tempo intercorso tra il calcolo della GPU e l’ottenimento a schermo dell’immagine derivante) e da una latenza derivante dal tempo necessario a ricevere e posizionare fisicamente nel mondo virtuale i dati ottenuti dalla frame latency.
Da tutto ciò deriva un quadro che va ad evidenziare una problematicità di fondo abbastanza pronunciata e, ovviamente, di non facile risolvibilità; non per questo gli ingegneri AMD si son dati per vinti: molte infatti sono le frecce al loro arco, se non per risolvere il problema almeno per lenirne l’entità e fornire dunque uno scenario che, per quanto critico, sia più facilmente affrontabile, con i mezzi attuali ma in ottica nettamente futura e futuribile, ed indirizzare dunque la risoluzione del problema nel giusto ambito.
Quali sono queste armi? Le scopriremo insieme la prossima settimana: stay tuned!
Commenti