Tag: audio

iOS弃用audio格式 – AMR(自适应多速率)

所以这是我一直试图加载我的旧应用程序时,我的头脑。 有很多线索,人们在iOS中要求支持的audio格式。 而且其中大多数人都评论说在iOS 4.3中,对AMR(自适应多速率)的支持下降了。 他们怎么知道这个? iPhone中支持的audio文件格式 但是在苹果的官方文档中,我找不到任何api的变化或者任何其他的变化。 即4.2和4.3之间的差异: https : //developer.apple.com/library/ios/releasenotes/General/iOS43APIDiffs/ 我怎样才能得到真正的文件说这实际上发生? 任何帮助在这里将不胜感激!

Swift – 有一个audio重复,但它会间隔?

在Swift中 ,我播放了一首歌,它在viewDidLoad中播放。 它长16秒,全部播放16秒。 我希望它永远重复。 我做了一个NSTimer ,每16秒播放一首歌。 但是,当应用程序加载时,它播放16秒,停止16秒,播放等。 println("just doing some dandy debugging here.") 行 println("just doing some dandy debugging here.") 每16秒打印一次。 这是如何修复的? 码: //these var's are created on the top of the file. var soundTimer: NSTimer = NSTimer() var audioPlayer2 = AVAudioPlayer() var soundTwo = NSURL(fileURLWithPath: NSBundle.mainBundle().pathForResource("sound", ofType: "wav")) //this stuff is in the viewDidLoad […]

在cocos2d v3中播放audio

我试图让背景音乐播放和循环,以及一次又一次的发音,例如升级等。 我find了很多关于使用SimpleAudioEngine的教程,但是当我导入SimpleAudioEngine.h时,编译器显示“SimpleAudioEngine.h file not found” 我正在使用SpriteBuilder和cocos2d v3。 有谁知道我从哪里可以得到这个class? 谢谢

使用Gracenote SDK(GNSDK)读取文件并执行指纹识别

我试图从iOS上读取16位16KHz的WAV(20秒长),并执行指纹识别。 我试过按照“GNSDK-for-Mobile-iOS-Developers-Guide”的指导,但是它没有第53页的Objective-C例子(只有C#)。 我的代码读取整个文件,然后将2K块写入函数fingerprintWrite(我也尝试将指针传递给整个文件)。 variables“结果”从来没有设置为1 – 表明数据不足已经通过 – 但20秒应该是足够的,对不对?任何人都可以帮忙?谢谢。 这是我所做的: NSString *filepath = [[NSBundle mainBundle] pathForResource:@"Human.signed.20s.16bit" ofType:@"raw"]; NSData *audioData= [NSData dataWithContentsOfFile:filepath]; BOOL result; if (error) NSLog(@"Error reading file: %@", error.localizedDescription); // for debugging… NSLog(@"contents: %@", audioData); NSLog(@"Done:"); unsigned char buffer[audioData.length]; [audioData getBytes:buffer length:audioData.length]; for (int i = 0; i < audioData.length; i++) { printf("0x%02x ",(unsigned char)buffer[i]); […]

Objective C / IOS – 将audiostream保存到文件

是否有可能/有没有办法将audiostream保存到本地文件? 我很缺乏经验,我不知道从哪里开始 – 正确的方向点将不胜感激。 我正在构build一个从URLstream式传输audio的应用程序(例如http://audiostream.mp3 )。 我希望用户能够将audio保存到文件,从他们开始收听时开始。 由于audio将是一个stream,我担心的是,我不处理一个完整的MP3文件 – 我猜这使事情比简单地下载一个完整的MP3更棘手。 在此先感谢您的帮助。

在ObjectiveC中连接audio缓冲区

首先我是c和c的新蜜蜂 我尝试去掉一个audio缓冲区并绘制它的graphics。 我使用audio单元callback来获取audio缓冲区。 callback带来了512帧,但471帧后,它带来0.(我不知道这是正常的,它用来带471帧充满数字,但现在不知怎的512帧47之后0。请让我知道如果这是正常的) 无论如何。 我可以从callback中获取缓冲区,应用fft并绘制它。 这工作完美。 下面是结果。 只要我在每个callback中获得缓冲区,graphics就非常平滑 但在我的情况下,我需要3秒的缓冲区,以应用fft和绘制。 所以我尝试连接来自两个callback的缓冲区,然后应用fft并绘制它。 但结果并不像我所期望的那样。 而上面的一个在logging过程中非常stream畅和精确(只有在18和19 kHz的幅度变化),当我连接两个缓冲区时,仿真器主要显示两个不同的视图,它们之间交换的速度非常快。 他们显示在下面。 当然,他们基本上显示18和19千赫兹。 但我需要精确的khz,所以我可以为我工作的应用程序应用更多的algorithm。 这是我的代码在callback //FFTInputBufferLen, FFTInputBufferFrameIndex is gloabal //also tempFilteredBuffer is allocated in global //by the way FFTInputBufferLen = 1024; static OSStatus performRender (void *inRefCon, AudioUnitRenderActionFlags *ioActionFlags, const AudioTimeStamp *inTimeStamp, UInt32 inBusNumber, UInt32 inNumberFrames, AudioBufferList *ioData) { UInt32 bus1 = 1; […]

iOS RTP现场audio接收

我试图在我的iPhone中收到一个实时的RTPaudiostream,但我不知道如何开始。 我正在寻找一些样品,但我找不到他们的任何地方。 我有一个Windows桌面应用程序,它从所选的audio接口捕获audio,并将其作为μ律或a律传输。 这个应用程序作为一个audio服务器,提供任何传入的stream连接的连接。 我不得不说,我已经开发了一个接收该stream的Android应用程序,它的工作原理,所以我想在iOS上复制这个function。 在Android中,我们有“android.net.rtp”包来pipe理这个并通过networking传输或接收数据stream。 有没有任何一种类似的包来实现这个iOS? 你可以给我任何参考/样品做这个,或者告诉我从哪里开始?

是否有可能直接加载一个压缩的audio文件到缓冲区,没有转换?

我正在开发iOS应用程序,它必须同时处理几个立体声audio文件(持续时间从几秒到四分钟不等),同时播放多达三个立体声audio文件,并通过基于多通道混音器的AUGraph进行同步。 我的audio文件被压缩 – 无论是MP3,AAC或CAF – 但是当他们被加载到缓冲区转换为32位AudioUnitSampleType格式(我的代码是基于苹果的iPhoneMultichannelMixerTest )。 不用说,用这么大的缓冲区,应用程序的内存很快就成了一个问题。 苹果的文档指出,iOS设备可以一次解码一个硬件MP3 / AAC文件,推荐CAF(IMA4)格式的其他文件需要软件解码。 在开发一个用于在播放过程中dynamic加载audio的系统之前,我想知道是否可以直接将压缩文件加载到缓冲区(从而显着降低内存需求),并让我的AUGraph在运行中将其转换。

在iOS上将audio添加到地图

我现在有一张地图,上面有几个相近的地图。 现在,当用户点击注释时,会popup一个小小的名字。 我怎么能这样做,以便有关该位置的audio播放? 我不是暂停button等fussed,现在我想知道我如何实现audio到这个!

声音循环与简单audio引擎之间略有暂停

在简单audio引擎中使用playBackgroundMusic loop:YES播放背景音乐时playBackgroundMusic loop:YES ,在audio循环回到开头并重新开始之前似乎有一个小的延迟。 有什么办法可以防止这种轻微的停顿吗?