Tag: logging

录制audio并永久保存在iOS中

我已经做了2个iPhone应用程序,可以录制audio并将其保存到文件并再次播放。 其中一个使用AVAudiorecorder和AVAudioplayer。 第二个是苹果公司的SpeakHereaudio队列的例子。 既可以在Simulater上运行,也可以在Device上运行。 但当我重新启动任何应用程序logging的文件没有find! 我已经尝试了所有可能的build议在stackoverflow上find,但它仍然无法正常工作! 这是我用来保存文件: NSArray *dirPaths; NSString *docsDir; dirPaths = NSSearchPathForDirectoriesInDomains( NSDocumentDirectory, NSUserDomainMask, YES); docsDir = [dirPaths objectAtIndex:0]; NSString *soundFilePath = [docsDir stringByAppendingPathComponent:@"sound1.caf"]; NSURL *soundFileURL = [NSURL fileURLWithPath:soundFilePath];

iOS:用于同时logging和回放的示例代码

我正在为多轨录音机devise一个简单的概念certificate。 明显的出发点是将文件A.caf播放到耳机,同时将麦克风input录制到B.caf文件中 这个问题 – 同时录制和播放audio – 指出我可以在三个层面上工作: AVFoundation API(AVAudioPlayer + AVAudioRecorder) audio队列API audio单元API(RemoteIO) 什么是最好的工作水平? 显然,通用的答案是在最高层面上工作,完成工作,这将是AVFoundation。 但是我正在从一个由于延迟问题而放弃的人(他在这两个文件之间延迟了0.3秒)中接受这个工作,所以也许我需要在较低的层次上工作来避免这些问题? 此外,哪些源代码可用于跳板? 我一直在看SpeakHere示例( http://developer.apple.com/library/ios/#samplecode/SpeakHere/Introduction/Intro.html )。 如果我找不到更简单的东西,我会用这个。 但任何人都可以提出更简单/其他? 如果我能避免它,我宁愿不使用C ++代码。 有谁知道一些使用AVFoundation这样做的公共代码? 编辑:AVFoundation示例在这里: http ://www.iphoneam.com/blog/index.php?title=using-the-iphone-to-record-audio-a-guide&more=1&c=1&tb=1&pb =1 编辑(2):更好看一个在这里: http : //www.switchonthecode.com/tutorials/create-a-basic-iphone-audio-player-with-av-foundation-framework 编辑(3): 如何使用AVAudioRecorder在iPhone上录制audio?

同时AVCaptureVideoDataOutput和AVCaptureMovieFileOutput

我需要能够使AVCaptureVideoDataOutput和AVCaptureMovieFileOutput工作。 下面的代码工作,但是,video录制不。 在调用startRecordingToOutputFileURL之后直接调用didFinishRecordingToOutputFileAtURL委托。 现在,如果我通过简单的注释掉AVCaptureVideoDataOutput从AVCaptureSession删除: [captureSession addOutput:captureDataOutput]; video录制的作品,但没有调用SampleBufferDelegate(我需要)。 我怎么能有AVCaptureVideoDataOutput和AVCaptureMovieFileOutput同时工作。 – (void)initCapture { AVCaptureDeviceInput *captureInput = [AVCaptureDeviceInput deviceInputWithDevice:[AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo] error:NULL]; captureDataOutput = [[AVCaptureVideoDataOutput alloc] init]; [captureDataOutput setSampleBufferDelegate:self queue:dispatch_get_main_queue()]; m_captureFileOutput = [[AVCaptureMovieFileOutput alloc] init]; NSString* key = (NSString*)kCVPixelBufferPixelFormatTypeKey; NSNumber* value = [NSNumber numberWithUnsignedInt:kCVPixelFormatType_32BGRA]; NSDictionary* videoSettings = [NSDictionary dictionaryWithObject:value forKey:key]; [captureDataOutput setVideoSettings:videoSettings]; captureSession = [[AVCaptureSession alloc] init]; [captureSession addInput:captureInput]; […]