2016-06-21 31 views
31

Ho una semplice app Tango Unity che utilizza il prefabbricato Tango AR Camera per visualizzare un oggetto 3D in realtà aumentata.Occlusion in Tango AR Camera

Seguendo this question, volevo provare lo occlusion feature fornito da TangoARScreen.

Quindi ho:

  • controllato la casella di controllo "Abilita Occlusion"
  • rilevamento profondità abilitato in Tango Manager
  • aggiunto un Tango Point Cloud con Update points mesh abilitato.

Tuttavia, l'oggetto 3D non viene mai nascosto dagli oggetti in primo piano del mondo reale. Cosa mi manca?

Esiste un progetto di esempio che dimostri questa funzione "Abilita occlusione"?

risposta

0

che sembra essere stato risolto nelle ultime versioni dell'SDK di Tango.

8

Provare a cercare negli esempi di unità, quello denominato ExperimentalMeshOcclusion.

L'ho appena eseguito e l'occlusione funziona correttamente, quindi è possibile vedere gli oggetti scena e il codice in uso.

+1

Questo esempio ha il proprio modo di gestire l'occlusione (basato su mesh sperimentale), non usa la funzionalità "Abilita occlusione" di 'TangoARScreen'. – fiddler

+0

Tutti gli esempi di Unity3D Tango SDK si bloccano per me in circa 30 secondi di esecuzione, lo stesso accade ad altri con cui ho parlato. Come diavolo hai fatto a farli lavorare? Potresti dirmi quale versione di Unity + quale SDK rilascia + quale dispositivo stai usando? –

4

Per utilizzare l'occlusione su TnagoARScreen, è necessario selezionare la casella di controllo Update Points Mesh su TangoPointCloud prefabbricata nella scena.

+1

Come esplicitamente indicato nella domanda, ho già 'aggiunto una "Tango nuvola di punti" con "punti di aggiornamento in rete" enabled' – fiddler

3

Non c'è un campione, ma ecco i passaggi per modificare un campione esistente per attivarlo. Testato lavorando su Phab2.

  1. Inizia da Area Learning Example.
  2. Carica la scena in Unity e apri "Tango Point Cloud" Inspector dalla tua Gerarchia.
  3. Selezionare "Aggiorna punti mesh" sotto lo script "Tango Point Cloud".
  4. Aprire l'ispettore "Telecamera Tango AR". Spunta "Abilita occlusione" sotto lo script "Tango AR Screen"
  5. Esegui l'app e assicurati di eseguire il test posizionando un segno dietro un oggetto di buone dimensioni e spostandoti abbastanza indietro in modo che il sensore di profondità possa vedere l'oggetto. Rendering the Point cloud data to screen può aiutarti ad assicurarti di ricevere l'input dal sensore di profondità che ti aspetti.

faccio trovare i risultati migliori con il campione sperimentale a cui fa riferimento @Oren

+0

Ci proverò, ma non vedo alcuna differenza con quello che ho provato e descritto nel mio domanda, c'è qualche? – fiddler

+0

Naa i passaggi che hai elencato sono gli stessi, ma potresti aver iniziato da un punto di partenza diverso rispetto all'Irea Learning Esempio? L'ho seguito personalmente e ha funzionato su Mac e Unity 5.5.0f3 e gli ultimi aggiornamenti (pochi giorni fa) su Tango. E la fase 6 è per esperienza, ho pensato che non funzionava, fino a quando ho capito che era troppo vicino al mio oggetto occlusione per il sensore di profondità per raccoglierlo. È stato solo quando ho acceso il display della nuvola di punti che ho realizzato quanto pignolo possa essere. – Jethro

+0

questo non funziona per me .. Ho iniziato da un esempio di apprendimento dell'area pulita. Qualche idea? – ShadowMan