L'API Hit Test ti consente di posizionare elementi virtuali in una vista reale.
L'API WebXR Device è stata lanciata lo scorso autunno con Chrome 79. Come già detto, l'implementazione dell'API da parte di Chrome è ancora in fase di sviluppo. Chrome è lieto di annunciare che alcuni lavori sono stati completati. In Chrome 81 sono state introdotte due nuove funzionalità:
Questo articolo illustra l'API WebXR Hit Test, uno strumento che consente di posizionare oggetti virtuali in una visualizzazione della videocamera reale.
In questo articolo presuppongo che tu sappia già come creare una sessione di realtà aumentata e come eseguire un loop di frame. Se non hai familiarità con questi concetti, ti consigliamo di leggere gli articoli precedenti di questa serie.
- La realtà virtuale arriva sul web
- La realtà virtuale arriva sul web, parte II
- AR web: potresti già sapere come utilizzarla
L'esempio di sessione AR immersiva
Il codice riportato in questo articolo si basa, ma non è identico, a quello presente nell'esempio di hit test di Immmersive Web Working Group (demo, fonte). Questo esempio ti consente di posizionare girasoli virtuali su superfici del mondo reale.
Quando apri l'app per la prima volta, viene visualizzato un cerchio blu con un punto al centro. Il punto è l'intersezione tra una linea immaginaria che parte dal dispositivo e il punto nell'ambiente. che si sposta mentre muovi il dispositivo. Quando trova punti di intersezione, sembra agganciarsi a superfici come pavimenti, piani di tavoli e pareti. Questo perché i test di corrispondenza forniscono la posizione e l'orientamento del punto di intersezione, ma non forniscono informazioni sulle superfici stesse.
Questo cerchio è chiamato reticolo, ed è un'immagine temporanea che aiuta a posizionare un oggetto nella realtà aumentata. Se tocchi lo schermo, un girasole viene posizionato sulla superficie nella posizione e nell'orientamento del punto del mirino, indipendentemente da dove hai toccato lo schermo. Il reticolo continua a muoversi insieme al dispositivo.
Crea il mirino
Devi creare l'immagine del mirino autonomamente, poiché non è fornita dal browser o dall'API. Il metodo di caricamento e di disegno è specifico del framework.
Se non lo stai disegnando direttamente con WebGL o WebGL2, consulta la documentazione del framework. Per questo motivo, non entrerò nei dettagli su come viene disegnato il reticolo nel sample. Di seguito ne mostro una riga per un solo motivo: in modo che negli esempi di codice successivi tu sappia a cosa mi riferisco quando utilizzo la variabile reticle
.
let reticle = new Gltf2Node({url: 'media/gltf/reticle/reticle.gltf'});
Richiedere una sessione
Quando richiedi una sessione, devi richiedere 'hit-test'
nell'array requiredFeatures
, come mostrato di seguito.
navigator.xr.requestSession('immersive-ar', {
requiredFeatures: ['local', 'hit-test']
})
.then((session) => {
// Do something with the session
});
Accedere a una sessione
Negli articoli precedenti ho presentato il codice per accedere a una sessione XR. Di seguito ho mostrato una versione di questo grafico con alcune aggiunte. Innanzitutto ho aggiunto l'ascoltatore di eventi select
. Quando l'utente tocca lo schermo, un fiore viene inserito nell'inquadratura della fotocamera in base alla posizione del mirino. Descriverò questo gestore di eventi più avanti.
function onSessionStarted(xrSession) {
xrSession.addEventListener('end', onSessionEnded);
xrSession.addEventListener('select', onSelect);
let canvas = document.createElement('canvas');
gl = canvas.getContext('webgl', { xrCompatible: true });
xrSession.updateRenderState({
baseLayer: new XRWebGLLayer(session, gl)
});
xrSession.requestReferenceSpace('viewer').then((refSpace) => {
xrViewerSpace = refSpace;
xrSession.requestHitTestSource({ space: xrViewerSpace })
.then((hitTestSource) => {
xrHitTestSource = hitTestSource;
});
});
xrSession.requestReferenceSpace('local').then((refSpace) => {
xrRefSpace = refSpace;
xrSession.requestAnimationFrame(onXRFrame);
});
}
Più spazi di riferimento
Tieni presente che il codice evidenziato chiama XRSession.requestReferenceSpace()
due volte. All'inizio mi sembrava complicato. Ho chiesto perché il codice del test di corrispondenza non richiede un frame di animazione (avviando il loop dei frame) e perché il loop dei frame sembra non coinvolgere i test di corrispondenza. La confusione causava
un malinteso sugli spazi di riferimento. Gli spazi di riferimento esprimono le relazioni tra un'origine e il mondo.
Per capire cosa fa questo codice, immagina di visualizzare questo esempio utilizzando un rig autonomo e di avere sia un paio di cuffie sia un controller. Per misurare le distanze dal controller, devi utilizzare un sistema di riferimento centrato sul controller. Tuttavia, per disegnare qualcosa sullo schermo, devi utilizzare coordinate centrate sull'utente.
In questo esempio, lo spettatore e il controller sono lo stesso dispositivo. Ma ho un problema. Ciò che disegno deve essere stabile rispetto all'ambiente, ma il "controller" con cui disegno è in movimento.
Per disegnare immagini, utilizzo lo spazio di riferimento local
, che mi offre stabilità
in termini di ambiente. Dopo aver ricevuto questo messaggio, avvio il loop dei frame chiamando requestAnimationFrame()
.
Per i test di hit, utilizzo lo spazio di riferimento viewer
, che si basa sulla posizione del dispositivo al momento del test di hit. L'etichetta "viewer" è un po' confusa
in questo contesto perché sto parlando di un controller. Ha senso se pensi al controller come a un visualizzatore elettronico. Dopo aver ottenuto questo risultato, chiamo xrSession.requestHitTestSource()
, che crea l'origine dei dati di hit test che utilizzerò per disegnare.
Esecuzione di un loop di frame
Il callback requestAnimationFrame()
riceve anche nuovo codice per gestire il test degli hit.
Quando muovi il dispositivo, il mirino deve muoversi con esso mentre cerca di trovare le superfici. Per creare l'illusione del movimento, ridisegna il mirino in ogni fotogramma.
Tuttavia, non mostrare il mirino se il test di corrispondenza non va a buon fine. Pertanto, per il mirino creato
in precedenza, ho impostato la proprietà visible
su false
.
function onXRFrame(hrTime, xrFrame) {
let xrSession = xrFrame.session;
xrSession.requestAnimationFrame(onXRFrame);
let xrViewerPose = xrFrame.getViewerPose(xrRefSpace);
reticle.visible = false;
// Reminder: the hitTestSource was acquired during onSessionStart()
if (xrHitTestSource && xrViewerPose) {
let hitTestResults = xrFrame.getHitTestResults(xrHitTestSource);
if (hitTestResults.length > 0) {
let pose = hitTestResults[0].getPose(xrRefSpace);
reticle.visible = true;
reticle.matrix = pose.transform.matrix;
}
}
// Draw to the screen
}
Per disegnare qualsiasi cosa in AR, ho bisogno di sapere dove si trova lo spettatore e dove sta guardando. Quindi verifico che hitTestSource
e xrViewerPose
siano ancora validi.
function onXRFrame(hrTime, xrFrame) {
let xrSession = xrFrame.session;
xrSession.requestAnimationFrame(onXRFrame);
let xrViewerPose = xrFrame.getViewerPose(xrRefSpace);
reticle.visible = false;
// Reminder: the hitTestSource was acquired during onSessionStart()
if (xrHitTestSource && xrViewerPose) {
let hitTestResults = xrFrame.getHitTestResults(xrHitTestSource);
if (hitTestResults.length > 0) {
let pose = hitTestResults[0].getPose(xrRefSpace);
reticle.visible = true;
reticle.matrix = pose.transform.matrix;
}
}
// Draw to the screen
}
Ora chiamo getHitTestResults()
. Prende hitTestSource
come argomento
e restituisce un array di istanze HitTestResult
. Il test di hit potrebbe trovare più superfici. Il primo nell'array è quello più vicino alla fotocamera.
La maggior parte delle volte lo utilizzerai, ma viene restituito un array per i casi di utilizzo avanzato. Ad esempio, immagina che la videocamera sia rivolta verso una scatola su un tavolo sul pavimento. È possibile che il test di corrispondenza restituisca tutte e tre le superfici nell'array. Nella maggior parte dei casi, è la scatola che mi interessa. Se la lunghezza dell'array restituito è 0, in altre parole se non viene restituito alcun test di corrispondenza, vai avanti. Riprova nel fotogramma successivo.
function onXRFrame(hrTime, xrFrame) {
let xrSession = xrFrame.session;
xrSession.requestAnimationFrame(onXRFrame);
let xrViewerPose = xrFrame.getViewerPose(xrRefSpace);
reticle.visible = false;
// Reminder: the hitTestSource was acquired during onSessionStart()
if (xrHitTestSource && xrViewerPose) {
let hitTestResults = xrFrame.getHitTestResults(xrHitTestSource);
if (hitTestResults.length > 0) {
let pose = hitTestResults[0].getPose(xrRefSpace);
reticle.visible = true;
reticle.matrix = pose.transform.matrix;
}
}
// Draw to the screen
}
Infine, devo elaborare i risultati del test di hit. Il processo di base è questo. Recupera una posa dal risultato del test di corrispondenza, trasforma (sposta) l'immagine del mirino nella posizione del test di corrispondenza e imposta la relativa proprietà visible
su true. La posa rappresenta la posa di un punto su una superficie.
function onXRFrame(hrTime, xrFrame) {
let xrSession = xrFrame.session;
xrSession.requestAnimationFrame(onXRFrame);
let xrViewerPose = xrFrame.getViewerPose(xrRefSpace);
reticle.visible = false;
// Reminder: the hitTestSource was acquired during onSessionStart()
if (xrHitTestSource && xrViewerPose) {
let hitTestResults = xrFrame.getHitTestResults(xrHitTestSource);
if (hitTestResults.length > 0) {
let pose = hitTestResults[0].getPose(xrRefSpace);
reticle.matrix = pose.transform.matrix;
reticle.visible = true;
}
}
// Draw to the screen
}
Posizionare un oggetto
Un oggetto viene posizionato in AR quando l'utente tocca lo schermo. Ho già aggiunto un gestore di eventi select
alla sessione. Vedi sopra.
L'aspetto importante di questo passaggio è sapere dove posizionarlo. Poiché il reticolo in movimento offre una fonte costante di test di corrispondenza, il modo più semplice per posizionare un oggetto è disegnarlo nella posizione del reticolo all'ultimo test di corrispondenza.
function onSelect(event) {
if (reticle.visible) {
// The reticle should already be positioned at the latest hit point,
// so we can just use its matrix to save an unnecessary call to
// event.frame.getHitTestResults.
addARObjectAt(reticle.matrix);
}
}
Conclusione
Il modo migliore per comprendere questo aspetto è esaminare il codice di esempio o provare il codelab. Spero di averti fornito informazioni sufficienti per comprendere entrambi.
Non abbiamo ancora finito di creare API web immersive, anzi, siamo solo all'inizio. Pubblicheremo nuovi articoli qui man mano che facciamo progressi.
Foto di Daniel Frank su Unsplash