Vorrei trasferire la webcam di un utente (dal browser) a un server e ho bisogno che il server sia in grado di manipolare lo stream (eseguire alcuni algoritmi C su quel video flusso) e inviare all'utente le informazioni di ritorno.Come eseguire lo streaming della webcam sul server e manipolare lo streaming
Ho esaminato pesantemente WebRTC e MediaCapture e ho letto gli esempi qui: https://bitbucket.org/webrtc/codelab/overview.
Tuttavia, questo è fatto per chat video peer-to-peer. Da quanto ho capito, MediaStream di getUserMedia viene trasmesso tramite una RTCPeerConnection (con addStream); quello che mi piacerebbe sapere è: posso usare questo, ma elaborare il flusso video sul server?
Grazie in anticipo per il vostro aiuto
Sì, è possibile inviare e manipolare su un server :). Quali domande specifiche avete su di esso? Ci sono numerosi server MCU là fuori (controlla il licodo) –
Grazie per la risposta. Bene, questo esempio sembra adatto allo streaming di video peer to peer (anche se non sono ancora riuscito a farlo funzionare:/...). Quello che devo fare e non riesco a vedere come è lo streaming della webcam dell'utente su un server e manipolare il flusso video: come/dove accedo allo stream (non posso certo avere un browser in esecuzione nel server). Non vedo da nessuna parte nel codice di esempio in cui ho accesso "fisico" ai dati! – nschoe
non utilizzi l'API del browser, dovresti utilizzare [l'API WebRTC nativa c/C++] (https://code.google.com/p/webrtc/source/checkout) e puoi ricevere una chiamata da un browser a quell'app che costruisci quella API nativa e manipola da lì. –