Возможна ли обработка звука в реальном времени в iOS?

Поэтому я планирую создать приложение, которое, по крайней мере, позволит мне использовать микрофон на iphone, чтобы преобразовать его в сбалансированный аудиосигнал через разъем для наушников. Проблема в том, что я не уверен, что получение микрофонного входа на выходе возможно без задержки. Я изучил CoreAudio и AVFoundation, но похоже, что скоро становится устаревшим, а другой может быть слишком высоким, чтобы делать то, что мне нужно. Я тестирую AudioKit, но я только запускаю его в симуляторе, который работает на виртуальной машине внутри окон, поэтому я могу получить гораздо лучшие результаты на реальном устройстве (хотя я скептически отношусь к тому, что задержка звука связана с так же, как при наблюдении за моим микрофоном через окна).

Кто-нибудь знает какие-либо рамки или буквально все, что могло бы сделать обработку звука в реальном времени без слишком заметной задержки? Возможно ли это на iOS или слишком накладные расходы ОС?

Буквально любой ответ приветствуется.

Всего 1 ответ


Я обрабатываю аудио в реальном времени с помощью AudioKit. Было несколько икота, но мне удалось добавить новые узлы обработки в микрофонные записи в реальном времени и вывести их на динамик практически без задержки.

Заметный hiccup, с которым я столкнулся, заключался в различии между сборкой «debug» и сборкой «release» в xcode. Сборка сборки требует больше времени для компиляции, но работает быстрее, что уменьшает задержку обработки аудиообуфера. Моя платформа тестирования - это старый ipad2, поэтому вы можете не столкнуться с этими проблемами, если используете более современное оборудование.


Есть идеи?

10000