Ho giocato con la demo di aurioTouch di Apple, che è un codice di esempio per il tutorial sull'unità audio. Questa applicazione consente l'input/output simultaneo dal microfono. al relatore. Rende anche uno stereografo del suono immesso dal microfono.iOS: manipolazione del telecomando Audio Audio Remote AudioBuffer (ad esempio effetti sonori dal microfono)
Ad un livello veramente alto di questo processo di basso livello, il codice di esempio definisce un componente audio (in questo caso RemoteIO che consente l'input/output simultaneo) e vi è un richiamo di rendering per questa unità audio. Nella callback fanno un po 'di filtraggio audio (un filtro di reiezione DC) e la visualizzazione dello stereografo sulla base dei dati del suono AudioBuffer dal microfono.
Il mio obiettivo finale è quello di creare la mia unità di distorsione audio personalizzata basata sull'ingresso dal microfono. Penso che il modo corretto per farlo in base all'esercitazione Audio Unit sia quello di creare una seconda unità audio e collegarli con un grafico di elaborazione audio. Tuttavia, ho letto che iOS non ti consente di registrare le tue unità audio personalizzate. Le mie domande sono:
- posso fare manipolazione diretta sul AudioBufferList che ho accesso al callback render dall'unità remoteIO Audio (dal momento che già sembrano fare questo e l'applicazione di un filtro audio su di esso) e creare la mia distorsione audio personalizzata lì?
- Ho provato ad assegnare i dati di AudioBufferList a una costante (un valore che ho visto trattenuto da un'esecuzione di esempio e la registrazione di AudioBufferList), ma sembra non fare nulla.
Chiunque cerchi il collegamento github, il codice è ora spostato in: https://github.com/openframeworks/openFrameworks/blob/master/addons/ofxiPhone/src/sound/ofxiPhoneSoundStream.mm –