Tag: avcapturesession

简单的屏幕截图:只logging在UIView的图层内出现的video?

这个SO答案解决了如何做一个UIView的屏幕截图。 我们需要类似的东西,而不是一个单一的图像,目标是产生超过60秒的UIView内出现的一切video – 概念上只logging该UIView的图层,忽略其他层。 我们的video应用在用户正在logging的任何位置叠加图层,最终目标是生成将这些图层与原始video合并的主video。 但是,使用AVVideoCompositionCoreAnimationTool将图层与原始video合并非常非常慢:导出60秒的video需要10-20秒。 我们发现结合两个video(即,仅使用不带AVVideoCompositionCoreAnimationTool )是非常快的:〜1秒。 希望是创build一个独立的图层video,然后将其与原始video结合使用AVMutableComposition. 斯威夫特的答案是理想的,但不是必需的。

使用相机检测心率

我需要与应用程序即时心率相同的function。 基本过程要求用户: 将食指尖轻轻放在相机镜头上。 施加均匀的压力并覆盖整个镜头。 保持稳定10秒钟,并获得心率。 这可以通过打开闪光灯并在血液通过食指移动时观察光线变化来完成。 如何从video捕获获取光照水平数据? 我应该在哪里找这个? 我通过类AVCaptureDevice但没有发现任何有用的东西。 我也发现AVCaptureDeviceSubjectAreaDidChangeNotification ,会有用吗?

试图了解CMTime

我已经看到CMTime的一些例子 (三个单独的链接),但我仍然不明白。 我使用AVCaptureVideoDataOutput AVCaptureSession和我想设置输出的最大和最小帧速率。 我的问题是我只是不明白的CMTime结构。 显然CMTimeMake(价值,timeScale)应该给我价值帧每1 / timeScale秒为总价值/ timeScale秒,或者我得到那个错误? 为什么不把这个logging下来以解释这是什么? 如果真的这样工作,我怎么会得到它有无限的帧数? 如果真的很简单,我很抱歉,但没有任何点击。

AVCaptureSession和背景audioiOS 7

每当我开始一个运行麦克风的AVCaptureSession作为input时,它将取消当前正在运行的任何背景音乐(例如iPod音乐)。 如果我将添加audioinput的行注释掉,背景audio会继续。 有没有人知道用麦克风录制video剪辑的方法,同时继续播放背景audio? 当您尝试录制video和音乐正在播放时,也有错误。 试图这样做: [[AVAudioSession sharedInstance] setCategory: AVAudioSessionCategoryPlayback error: nil]; UInt32 doSetProperty = 1; AudioSessionSetProperty (kAudioSessionProperty_OverrideCategoryMixWithOthers, sizeof(doSetProperty), &doSetProperty); [[AVAudioSession sharedInstance] setActive: YES error: nil]; 但 'AudioSessionSetProperty' is deprecated: first deprecated in iOS 7.0 所以我试图这样做: AVAudioSession *audioSession = [AVAudioSession sharedInstance]; NSError *setCategoryError = nil; [audioSession setCategory:AVAudioSessionCategoryPlayback withOptions:AVAudioSessionCategoryOptionMixWithOthers error:&setCategoryError]; [audioSession setActive:YES error:nil]; 但最后它没有工作。 感谢帮助!

避免video开始和结束时的模糊(甚至在使用setPreferredVideoStabilizationMode:AVCaptureVideoStabilizationModeAuto之后)?

我们在使用setPreferredVideoStabilizationMode:AVCaptureVideoStabilizationModeAuto同时在iOS上捕捉video,但是video在开始和结束时有时会变得模糊(尽pipe在中间很好),这是非常有问题的,因为我们把第一帧作为静止图像以便在不切换相机模式的情况下启用video和照片function)。 将设备平放在桌面上可消除所有的模糊,因此整个video都是清晰的。 这表明它与video稳定有关,但是还有其他属性可以设置吗? locking焦点模式的问题吗? 其他疑难解答提示? 以下是PBJVision的video捕获function,我们使用这个function: – (void)startVideoCapture { if (![self _canSessionCaptureWithOutput:_currentOutput] || _cameraMode != PBJCameraModeVideo) { [self _failVideoCaptureWithErrorCode:PBJVisionErrorSessionFailed]; DLog(@"session is not setup properly for capture"); return; } DLog(@"starting video capture"); [self _enqueueBlockOnCaptureVideoQueue:^{ if (_flags.recording || _flags.paused) return; NSString *guid = [[NSUUID new] UUIDString]; NSString *outputFile = [NSString stringWithFormat:@"video_%@.mp4", guid]; if ([_delegate respondsToSelector:@selector(vision:willStartVideoCaptureToFile:)]) { outputFile […]