Tag: audio

iOSaudio录制应用程序的多任务处理

我正在写一个loggingaudio的应用程序。 我正在研究支持多任务同时进行录音的可行性(在后台)。 答案似乎是从我迄今为止已经阅读的一个不是 ,特别是因为该程序是为了释放正在使用的任何系统资源切换出来。 所以我想知道,是否有可能让用户切换到iOS中的另一个应用程序,而我的应用程序继续在后台捕获audio?

循环背景音乐?

为我的iOS游戏播放背景音乐的最佳方式是什么? 我该怎么做? 让这个音乐文件播放的最佳格式是什么? 这首歌曲会不会乐于在整个游戏中播放,更改视图时不会中断? 我怎样才能循环这个音乐?

获取系统卷iOS

我的情况很简单:我需要发出一个警告信号,并要确保用户会听到它,所以我想检查系统音量。 我怎样才能找出当前的系统容量是多less?

如何在iOS中find蓝牙audio设备

好的,我正在做一个有趣的项目,有一个障碍,我需要为我的iOS应用程序启用蓝牙audio支持。 我所处的障碍是我根本无法获得连接的蓝牙audio设备列表。 即使我的iPhone 5S可以识别我的听筒(准确地说是一个3 – 4岁的LG HBM-230 ),并通过它来播放audio以进行通话,但是当我查询两者时, BOTH External Accessory和CoreBluetooth都没有什么用处。 我将自己的代码放在CoreBluetooth和External Accessory框架的问题和答案上。 当我的代码只是试图“ scanForPeripheralsWithServices:nil ”的任何蓝牙设备的设置 – >蓝牙说可见和连接,下面的代码只是不会有一个单一的命中超出控制台的“ CBCentralManagerStatePoweredOn ”消息。 和我的代码中的这一行(与一个有效的EAAccessoryManager实例) NSArray * connectedDevices = [self.eAAccessoryManager connectedAccessories]; 也返回一个零arrays。 我可能做错了什么? 顺便说一句, 我已经把这个代码作为一个GitHub项目 。 @implementation BluetoothManager + (BluetoothManager *)sharedInstance { static dispatch_once_t pred = 0; __strong static id _bluetoothMGR = nil; dispatch_once(&pred, ^{ _bluetoothMGR = [[BluetoothManager alloc] […]

从RemoteIO录制到AAC:数据正在写入,但文件不可播放

我一直在iPad 2上试图从RemoteIO单元直接录制到iOS 5的renderCallback中。我已经看到冲突的信息,说这是不可能的,这是可能的(在这里的评论)。 我之所以想这样做,是因为录制到PCM需要大量的磁盘空间来logging任何长度 – 即使稍后转换为AAC。 我即将准备放弃。 我已经通过谷歌,核心audio书和苹果核心audio邮件列表和论坛,已经达到了我没有得到任何错误的地步,并正在录制的东西磁盘,但生成的文件是无法播放的。 模拟器和设备都是这种情况。 所以…如果有人有这方面的经验,我真的很感激正确的方向。 设置是RemoteIO正在播放来自AUSamplers的输出并且工作正常。 以下是我在下面的代码中所做的 指定remoteIO单元的AudioStreamBasicDescription格式为kAudioFormatLinearPCM 创build并指定ExtAudioFileRef的目标格式通过从RemoteIO单元中获取指定客户端格式 为RemoteID单位指定renderCallback 在renderCallback中,将数据写入kAudioUnitRenderAction_PostRender阶段 正如我所说,我没有得到任何错误,并由此产生的audio文件大小显示正在编写的东西,但该文件是无法播放的。 也许我有我的格式搞砸了? 无论如何,这是我的信息在一瓶和/或“在这里龙”旗给其他任何人冒着Core-Audio的黑暗水域。 //尝试播放文件时遇到不愉快的消息: //远程设置的一部分 // Enable IO for recording UInt32 flag = 1; result = AudioUnitSetProperty(ioUnit, kAudioOutputUnitProperty_EnableIO, kAudioUnitScope_Input, kInputBus, // == 1 &flag, sizeof(flag)); if (noErr != result) {[self printErrorMessage: @"Enable IO for recording" withStatus: result]; return;} // […]

iOSaudio修剪

我search了很多,找不到任何相关的…我正在研究iOSaudio文件,这是我想要做的… 录制audio和保存剪辑(检查,我用AVAudioRecorder这样AVAudioRecorder ) 改变音调(检查,这是否使用Dirac) 修剪:( 我有两个标记,即开始和结束偏移量,并使用此信息我想修剪录制的文件,并希望将其保存回来。 我不想使用“寻找”,因为后来我想同步播放所有录制的文件(就像时间轴上的Flash影片剪辑一样),最后我想导出为一个audio文件。

如何从互联网下载audio/video文件,并存储在iPhone应用程序?

我正在开发一个音乐iPhone应用程序。 我想给用户一些select,以便他们可以通过stream媒体收听歌曲/音乐,或者他们可以在应用程序中下载音乐 。 我知道如何以编程方式在应用程序中stream式传输audio文件。 但是,我不知道如何下载应用程序中的audio文件,并下载后播放audio。 用户也可以在下载时暂停下载。 有可能吗? 任何人都可以请指导我,请为我分享任何示例代码或教程? 我还有一个怀疑:你能帮我在应用程序内创build一个文件夹吗? 请帮帮我。 提前致谢。

iOS:用于同时logging和回放的示例代码

我正在为多轨录音机devise一个简单的概念certificate。 明显的出发点是将文件A.caf播放到耳机,同时将麦克风input录制到B.caf文件中 这个问题 – 同时录制和播放audio – 指出我可以在三个层面上工作: AVFoundation API(AVAudioPlayer + AVAudioRecorder) audio队列API audio单元API(RemoteIO) 什么是最好的工作水平? 显然,通用的答案是在最高层面上工作,完成工作,这将是AVFoundation。 但是我正在从一个由于延迟问题而放弃的人(他在这两个文件之间延迟了0.3秒)中接受这个工作,所以也许我需要在较低的层次上工作来避免这些问题? 此外,哪些源代码可用于跳板? 我一直在看SpeakHere示例( http://developer.apple.com/library/ios/#samplecode/SpeakHere/Introduction/Intro.html )。 如果我找不到更简单的东西,我会用这个。 但任何人都可以提出更简单/其他? 如果我能避免它,我宁愿不使用C ++代码。 有谁知道一些使用AVFoundation这样做的公共代码? 编辑:AVFoundation示例在这里: http ://www.iphoneam.com/blog/index.php?title=using-the-iphone-to-record-audio-a-guide&more=1&c=1&tb=1&pb =1 编辑(2):更好看一个在这里: http : //www.switchonthecode.com/tutorials/create-a-basic-iphone-audio-player-with-av-foundation-framework 编辑(3): 如何使用AVAudioRecorder在iPhone上录制audio?

核心audio离线渲染GenericOutput

任何人都成功地使用core-Audio进行离线渲染。 我必须混合两个audio文件并应用混响(使用2个AudioFilePlayer,MultiChannelMixer,Reverb2和RemoteIO)。 得到它的工作。 我可以在预览时(在RemoteIO的renderCallBack上)保存它。 我需要保存它而不玩(离线)。 提前致谢。

快速创build和播放声音

所以我想要做的就是快速创build和播放声音,当我按下button时,我知道如何在Objective-C中做到这一点,但有谁知道如何在Swift中? Objective-C就是这样: NSURL *soundURL = [NSURL fileURLWithPath:[[NSBundle mainBundle] pathForResource:@"mysoundname" ofType:@"wav"]]; AudioServicesCreateSystemSoundID((__bridge CFURLRef)soundURL, &mySound); 然后玩它,我会做的: AudioServicesPlaySystemSound(Explosion); 有谁知道我能做到这一点?