Tag: audio

在iOS中内置麦克风和耳机之间进行select

我们正在开发一个应用程序,需要改变iOS的audio路线。 我们需要从麦克风input中获取一些信息,然后切换到设备的内部麦克风以录制环境声音。 我们已经看到这些页面的2个主题: 强制iPhone麦克风作为audioinput和使用内置麦克风,如果耳机插入,但我想没有任何最后的话根据这种情况。 现在,代码工作,但我们可以selectaudioinput的路线。 我们在Apple提供的文档(Remote IO)中没有发现任何东西。 这有什么新东西吗? 谢谢!

APN自定义通知声音问题

我有远程通知设置和工作正常。 但是,当收到通知时(当应用程序不在前台时),我必须播放自定义声音。 我已经添加了一个名为customSound.wav的文件到我的应用程序包,并确保“添加到目标”被选中时,我把它拖放到我的项目(这是正确的方式? 服务器端:相同的文件名被指定为“声音”:“customSound.wav”。 在我的didReceiveRemoteNotification我打印userInfo字典,它是这样来的: aps = { alert = "Good Evening Sir"; badge = 1; "custom_filed1" = 1; "custom_field2" = "AAA-BBB-CCC"; name = "Sir Hubert"; sound = default; }; 正如你所看到的,声音仍然是“默认”。 我意识到,如果找不到指定的声音,将播放默认声音 – 字典中的声音值也将为“默认”,或者应该是有效载荷json中指定的文件名。 这些在有效载荷中指定的顺序是重要的。 我已经尝试了其他线程的build议,但不为我工作。 我无法显示JSON,因为我目前无法访问系统。 任何关于我可能做错的build议?

ios – 合并/连接多个audio文件

我有一堆audio文件(MP3,AAC,无论),我想将它们连接成1个audio文件。 有没有人做过这个?

如何在iOS上自动播放HTML5 <video>和<audio>标签?

我和我的团队正在绑定一个Web应用程序在iPad上自动播放HTML5video/audio标签。 到目前为止,没有运气,许多尝试与CSS和JavaScript 。 问题是:有什么其他的select,使其自动播放? 我正在考虑与iOS API调用集成的浏览器的本机应用程序模拟触摸/点击 ,从而使video/audio标签自动播放。 是否有可能,如果是,如何以及与哪个iOS版本? 谢谢

Ios:从video中删除audio

我有要求静音video发送最终用户,所以我需要从video中删除audio文件。 将video传递给单个进程进行静音。

不logging时隐藏iOS应用程序中的红色录制状态栏

当应用程序在后台而不logging时,我无法将红色“录制”状态栏隐藏在我的应用程序中。 我碰巧使用了惊人的audio引擎 ,但我认为这个问题可以解决这个库的知识。 它得到这样的设置: audioController = [[AEAudioController alloc] initWithAudioDescription:desc inputEnabled:YES]; audioController.audioSessionCategory = kAudioSessionCategory_MediaPlayback; 当用户想要录制时,我打开这个麦克风: [audioController addInputReceiver:mic]; audioController.audioSessionCategory = kAudioSessionCategory_PlayAndRecord; 当用户想要停止录制时,我将其closures: [audioController removeInputReceiver:mic]; audioController.audioSessionCategory = kAudioSessionCategory_MediaPlayback; 问题是,当应用程序没有logging和用户离开应用程序,红色的“录制”状态栏仍然显示。 我无法停止/configurationaudioController,因为应用程序可能仍在播放audio。 如果我不录制,我不想让红色录制状态栏显示。 任何想法如何做到这一点? 更新 我设置了以下代码块,每隔2秒在我的应用程序中运行。 audioController.audioSessionCategory = kAudioSessionCategory_MediaPlayback; AVAudioSession *audioSession = [AVAudioSession sharedInstance]; NSError* error = nil; [audioSession setActive:NO error: &error]; NSLog(@"error: %@", error); [audioSession setCategory:AVAudioSessionCategoryPlayback error:nil]; 这logging: TAAE: […]

从RemoteIO录制:生成的.caf音调移位较慢+失真

所以我已经拼凑了一些基于一些post在这里录制audio的例程。 我引用的post在这里和这里 ,以及阅读他们引用的网站。 我的设置:我有一个现有的AUGraph :(几个AUSamplers – >混音器 – > RemoteIO)。 AUSamplers连接到MusicPlayer实例中的轨道。 这一切工作正常,但我想添加logging。 录音正在工作,但所产生的.caf音调/速度移动得慢+音质差。 必须是我指定的格式有问题吗? 有人可以眼球,并告诉我在哪里设置格式不正确吗? 编辑:这可能是一个立体声/单声道问题? 我的意思是在单声道录音。 我将RemoteIO实例上的stream格式设置为: AudioStreamBasicDescription audioFormat; audioFormat.mSampleRate = 44100.00; audioFormat.mFormatID = kAudioFormatLinearPCM; audioFormat.mFormatFlags = kAudioFormatFlagIsSignedInteger | kAudioFormatFlagIsPacked; audioFormat.mFramesPerPacket = 1; audioFormat.mChannelsPerFrame = 1; audioFormat.mBitsPerChannel = 16; audioFormat.mBytesPerPacket = 2; audioFormat.mBytesPerFrame = 2; // Apply format result = AudioUnitSetProperty(ioUnit, kAudioUnitProperty_StreamFormat, kAudioUnitScope_Output, kInputBus, […]

iPhone的iOS上可以使用Libsndfile库吗?

在iPhone操作系统上可以使用Libsndfile C库吗? 如果是这样,我是否需要“包含”它,还是比较复杂呢? 谢谢!

如何在Swift中使用CoreAudio API

我正在将streamaudio引擎迁移到swift。 我发现很难使用CaudioAPI在迅速。 我有AudioFileStreamOpen API的问题,它需要2 C函数作为参数。 我不知道如何使用这个API是迅速的。 AudioFileStreamOpen(self as UnsafePointer<()>, propertyProc, packetProc, kAudioFileMP3Type, audioStreamId) 我已经为这个API定义了如下的callback方法。 但是我收到编译错误。 func propertyProc(inClientData: UnsafePointer<()>,inFileStreamId: AudioFileStreamID,inPropertyId: AudioFileStreamPropertyID,ioFlags: UnsafePointer<UInt32>) -> Void { ….. } func packetProc(inClientData: UnsafePointer<()>,inNumberOfBytes: UInt32,inNumberOfPackets: UInt32, ConstUnsafePointer<()>, inPacketDescriptions: UnsafePointer<AudioStreamPacketDescription>) -> Void { ….. } 任何帮助感谢正确定义这个C API在迅速

如何在iOS中添加可播放的(如wav,wmv)标题与PCM数据/缓冲区?

我正在尝试在原始PCM数据的顶部添加一个wav头文件,以便通过AVAudioPlayer进行播放。 但我找不到任何解决scheme或源代码在iOS上使用Objective-C / Swift进行操作。 虽然我发现这个,但是没有正确的答案。 但是我在这里find了一段代码,里面包含了一些问题。 wav文件无法正确播放该代码生成的文件。 我已经给我的代码下面,我已经编码到目前为止。 int NumChannels = AUDIO_CHANNELS_PER_FRAME; short BitsPerSample = AUDIO_BITS_PER_CHANNEL; int SamplingRate = AUDIO_SAMPLE_RATE; int numOfSamples = [[NSData dataWithContentsOfFile:filePath] length]; int ByteRate = NumChannels*BitsPerSample*SamplingRate/8; short BlockAlign = NumChannels*BitsPerSample/8; int DataSize = NumChannels*numOfSamples*BitsPerSample/8; int chunkSize = 16; int totalSize = 36 + DataSize; short audioFormat = 1; if((fout = fopen([wavFilePath […]