Tag: audio

CocosDenshion音乐淡出

我在我的游戏中使用了cocos denshion作为音乐。 我正在用代码播放背景音乐: [[SimpleAudioEngine sharedEngine] playBackgroundMusic:@“backSong.mp3”]; 但是,当游戏结束时,我需要逐渐淡出背景音乐。 如何淡出背景音乐,有没有办法做到这一点? 提前致谢! 另外,ObjectAL比CocosDenshion更好吗? 如果是这样,有什么区别/优势?

iOS – 试图播放MP3文件失败

我试图回放和MP3文件我从我的应用程序从我的应用程序执行以下检索: – (IBAction)play:(UIButton *)sender { dispatch_queue_t downloadQueue = dispatch_queue_create("audio data downloader", NULL); dispatch_async(downloadQueue, ^{ NSURL *audioURL = [NSURL URLWithString:[NSString stringWithFormat:@"%@%@/%@.mp3", FONYK_FILES_URL, [self.voicenote valueForKeyPath:@"Fonyker.fonykid"], [self.voicenote valueForKeyPath:@"Voicenote.vnid"]]]; NSData *audioData = [NSData dataWithContentsOfURL:audioURL]; dispatch_async(dispatch_get_main_queue(), ^{ NSError *error = nil; AVAudioPlayer *audioPlayer = [[AVAudioPlayer alloc] initWithData:audioData error:&error]; NSLog(@"%@", error); audioPlayer.delegate = self; [audioPlayer play]; }); }); } 播放失败,意味着没有声音发出,我得到这个输出时,一步一步地debugging我的应用程序: Catchpoint […]

录制从AVPlayerstream式传输的audio

我试图通过AVPlayerlogging/采集正在stream式传输的audio。 AVAudioRecorder只logging麦克风,如果通过扬声器播放audio(虽然质量会受到影响),但是如果插入耳机,它绝对不会工作。 我到处寻找一个解决scheme,但仍然没有find一个解决scheme,将为我工作。 我需要抓取audio缓冲区吗? 还有另一种方法来捕捉正在播放的内容吗?

AAC许可证所需的iPhone应用程序?

AAC是一种audio编解码器,“被devise成MP3格式的后继者,AAC通常在相似比特率下获得比MP3更好的音质”。 ( 维基百科的AAC )。 但是,与MP3类似,AAC编解码器的部分function已获得专利,这意味着您不能在所有情况下都简单地使用这些编解码器,而无法确保您获得许可。 如果您开发自己的编码器或解码器,也是如此。 这是因为编写一个自己的编码器或解码器只能从版权问题和软件许可证(因为您拥有版权)中解脱出来,但是它并不能让您免受专利强加给您的要求。 我是否需要为我的iPhone应用程序获取许可证,以便对AAC文件进行编码和/或解码? 这个问题对许多开发人员是有帮助的,但是对于Stackoverflow来说这不是一个合适的问题。 阅读并从这篇文章中学习,但请不要用它作为证据,你可以问类似的问题。 有关更多信息,请参阅关于Stackoverflow 。

循环缓冲录音iOS:可能吗?

我的一个客户想要不断地loggingaudio,当他点击提交时,他只想提交最后10秒。 所以他想要连续logging,只保留最后的x秒。 我想这需要像循环缓冲区,但(作为一个iOS的新手),它看起来像AVAudioRecorder只能写入文件。 我有什么select来实现这个? 任何人都可以给一个指针?

如何合并两个MP3文件的iOS?

我有一个用户在我的应用程序录制和另一个mp3文件,我希望用户能够将这两个文件导出为一个,这意味着这两个文件将以某种方式合并或放在彼此之上。 如果没有理解,两个mp3文件将被同时播放,就像任何应用程序,用户可以录制说,一首歌,一个工具。 录音和乐器是两个独立的MP3文件,需要导出为一个。 我怎么去做这个? 从我读到的,我找不到解决scheme。 我在连接两个audio文件时看到了很多,但我不想让他们一个接一个地播放,而是同时播放。 谢谢。 编辑:我知道这是迟到,但万一有人绊倒了这一点,并正在寻找示例代码,这是在我的答案在这里: 我如何重叠audio文件,并在iPhone Xcode组合?

适用于iOS应用程序的多轨道MP3播放

我正在做一个应用程序,涉及以多轨道格式(鼓,人声,吉他,钢琴等)播放歌曲。 我不需要为每个音轨做任何奇妙的audio处理,我需要做的就是播放,暂停,以及将每个音轨静音/取消静音。 我一直在使用AVAudioPlayer的多个实例,但是在进行设备testing时,我注意到当他们第一次播放时,曲目的播放非常不同步。 此外,当我暂停和播放曲目时,它们将继续失去同步。 经过一些研究后,我意识到AVAudioplayer只是有太多的延迟,不适合我的应用。 在我的应用程序中,我基本上有一个AVArudioPlayers的NSArray,我将循环播放每一个或暂停/停止每一个,我相信这是什么造成它在设备上不同步。 似乎苹果的audio混音器对我来说效果不错,但是当我尝试实现它时,我得到了一个EXC_BAD_ACCESS错误,我找不出来。 我知道答案是使用OpenAL或audio单元,但是当我所需要做的就是同时播放5个.mp3曲目时,似乎没有必要花费数周的时间来学习这些内容。 有没有人有任何build议如何做到这一点? 谢谢

如何向后播放audio?

有人build议从头到尾读取audio数据,并创build一个从头到尾写入的副本,然后简单地播放该反转的audio数据。 有没有iOS的现有例子如何做到这一点? 我find了一个名为MixerHost的示例项目,它在某个时候使用一个AudioUnitSampleType保存从文件读取的audio数据,并将其分配给一个缓冲区。 这被定义为: typedef SInt32 AudioUnitSampleType; #define kAudioUnitSampleFractionBits 24 而根据苹果: 用于iPhone OS中的audio单元和其他audio处理的规范audio样本types是具有8.24位定点样本的非交织线性PCM。 换句话说,它保存了非交织的线性PCMaudio数据。 但是我不知道这些数据在哪里读取,以及它的存储位置。 这是加载audio数据并对其进行缓冲的代码: – (void) readAudioFilesIntoMemory { for (int audioFile = 0; audioFile < NUM_FILES; ++audioFile) { NSLog (@"readAudioFilesIntoMemory – file %i", audioFile); // Instantiate an extended audio file object. ExtAudioFileRef audioFileObject = 0; // Open an audio file and associate it […]

控制声音xcode的速度

我想知道是否有可能在xcode中减慢声音。 我的意思是我将在xcode中的支持文件中添加一些.mp3文件,我将创build可以加速或减速的应用程序。 例如与滑块。 这甚至有可能吗? 如果是的话,有谁能帮我一些想法? 谢谢

AudioToolbox – logging时的回拨延迟

最近我一直在为iOSdevise一个非常具体的项目,而且我的研究使我得到了几乎最终的代码。 我已经解决了迄今为止发现的所有极端困难,但在这个问题上,我似乎没有任何线索(关于原因或解决问题的可能性)。 我设置了我的audio序列(采样率44100,LinearPCM格式,每通道16位,每帧2个字节,每个通道1个通道…),并开始用12个audio缓冲区录制声音。 不过,每回传4次似乎都有延迟。 情况如下:前4个callback被调用,每个间隔大约2毫秒。 但是,在4日和5日之间,有60毫秒的延迟。 同样的事情发生在8日和9日,12日和13日之间… 似乎每帧字节和延迟时间之间有关系。 我知道这一点,因为如果我改变到每帧4字节,我开始在8日和9日之间,然后在16日和17日,24日和25日之间的延迟…尽pipe如此,似乎并没有延迟时间和缓冲器数量之间的任何关系。 callback函数只做两件事:将audio数据(inBuffer-> mAudioData)存储在我的类可以使用的数组上; 并调用另一个AudioQueueEnqueueBuffer,将当前缓冲区放回队列。 有没有人已经经历过这个问题? 有谁知道,至less,这可能是什么原因呢? 先谢谢你。