2013-02-15 19 views
5

Ho recentemente implementato un software di riconoscimento seguendo la tecnica descritta in this paper. Tuttavia, il mio set di dati contiene anche mappe di profondità prese con OpenNI.Suggerimento per l'algoritmo di riconoscimento oggetto utilizzando l'informazione di profondità

Mi piacerebbe aumentare la robustezza del riconoscimento utilizzando le informazioni di profondità. Penso però all'allenamento degli SVM 1-contro-tutti che calcolano gli istogrammi di risposta dell'arco dopo aver estratto i descrittori VFH (ho adattato l'interfaccia OpenCV DescriptorExtractor per questa attività). Ma il punto è: come posso unire le due cose per ottenere risultati più precisi? Qualcuno può suggerirmi una strategia per questo?

P.s Mi piacerebbe molto testare il riconoscimento che mostra direttamente gli oggetti su un kinect (e non, come sto facendo adesso, che alimenta le immagini ritagliate al riconoscitore).

+0

Sei sicuro utilizzando le informazioni di profondità potrebbe migliorare la robustezza? La carta che citi usando SIFT/Bag of Visual Words come descrittore che risulterà in un sistema invariante affine, ad es. puoi ridimensionare/ruotare/tradurre l'oggetto e continuerà a fornire descrittori ampiamente simili e quindi riconoscere l'oggetto. Se si utilizzano le informazioni sulla profondità e si inizia a inclinare l'oggetto da vari angoli alla telecamera, si otterranno segnali molto diversi. – jcollomosse

risposta

0

Suggerisco di dare un'occhiata a PCL, che è un framework molto simile a opencv, solo che è dedicato all'elaborazione point-cloud. È passato un po 'di tempo dall'usarlo, ma gli algoritmi sono altre implementazioni allo stato dell'arte.