Tag: avfoundation

如何将AVFoundation中的捕捉声音静音?

我想要使​​用AVfoundation没有任何声音的图像..(是的,我一直牢记在心..用户的select将实现此function) 关于堆栈溢出的2个问题给出了最多的信息: AVFoundation,如何captureStillImageAsynchronouslyFromConnectionclosures快门声音? 在iPhone上静音AVCapture快门声音 在第一个问题..没有答案接受和证实…. 在第二 .. AVCaptureVideoDataOutput被反驳。 这两个答案指的是捕捉video帧…我认为是正确的…问题是AVfoundation库是不是真的很容易掌握,我不能真正得到它的窍门。(捕获图像使用AVCaptureStillImageOutput本身对我来说很难)..任何人都可以帮助指点我或提供我一个很好的来源,没有声音捕捉图像。 非常感谢。

如何正确释放AVCaptureSession

我正在使用AV基础课程从摄像头捕捉实时videostream并处理video样本。 这很好。 但是,一旦完成,我确实遇到了正确释放AV基础实例(捕获会话,预览图层,input和输出)的问题。 当我不再需要会话和所有关联的对象时,我停止捕获会话并释放它。 这在大多数情况下是有效的。 但是,有时应用程序会崩溃,在调度队列创build的第二个线程(以及处理video样本的位置)中引发EXEC_BAD_ACCESS信号。 崩溃主要是由于我自己的类实例,它作为样本缓冲区委托,并在停止捕获会话后被释放。 Apple文档提到了这个问题:停止捕获会话是一个asynchronous操作。 那就是:它不会立即发生。 具体来说,第二个线程继续处理video样本并访问像捕获会话或input和输出设备的不同实例。 那么如何正确地释放AVCaptureSession和所有相关的实例呢? 是否有一个通知,可靠地告诉我,AVCaptureSession已经完成? 这是我的代码: 声明: AVCaptureSession* session; AVCaptureVideoPreviewLayer* previewLayer; UIView* view; 实例的设置: AVCaptureDevice* camera = [AVCaptureDevice defaultDeviceWithMediaType: AVMediaTypeVideo]; session = [[AVCaptureSession alloc] init]; AVCaptureDeviceInput* input = [AVCaptureDeviceInput deviceInputWithDevice: camera error: &error]; [session addInput: input]; AVCaptureVideoDataOutput* output = [[[AVCaptureVideoDataOutput alloc] init] autorelease]; [session addOutput: output]; dispatch_queue_t queue […]

ios覆盖另一个video上的alpha通道video

我一直在尝试创build一个video模板,使用覆盖在mp4video和图像上的alpha通道video。 这是我需要创build一个videohttp://viewptch.ptchcdn.com/rendered/52b28a9f8d4f980f3a3f99c3_cb44bf2b/52b28a9f8d4f980f3a3f99c3_lrg_main_main.mov为了覆盖在另一个video上的alphavideo,我用AVAnimator,我成功地播放使用AVFoundation,AVSynchronizedLayer和AVAnimator。 从构图渲染video时,alpha通道video帧呈现非常缓慢。 我需要在另一个video上创build一个带有alpha通道video的video。 任何人都可以请build议我有什么可能的方式来呈现像http://viewptch.ptchcdn.com/rendered/52b28a9f8d4f980f3a3f99c3_cb44bf2b/52b28a9f8d4f980f3a3f99c3_lrg_main_main.mov ?

如何使用AVURLAssetstream式传输video并将caching的数据保存到磁盘

前几天我被要求检查一下从网上下载video有多困难。 我知道这是一件容易的事,因为前一阵子有人告诉我。 所以,我检查,这是超级简单。 问题是,我想保存到磁盘的video,不要强迫用户下载一次又一次。 问题是访问缓冲区并将其存储到磁盘。 在Stackoverflow许多答案说,这也是不可能的。 特别与video。 我的原始代码播放video: import AVFoundation …. //MARK: – Accessors lazy var player: AVPlayer = { var player: AVPlayer = AVPlayer(playerItem: self.playerItem) player.actionAtItemEnd = AVPlayerActionAtItemEnd.None return player }() lazy var playerItem: AVPlayerItem = { var playerItem: AVPlayerItem = AVPlayerItem(asset: self.asset) return playerItem }() lazy var asset: AVURLAsset = { var asset: […]

kCVPixelFormatType_420YpCbCr8BiPlanarFullRange帧到UIImage转换

我有一个应用程序捕捉实时videokCVPixelFormatType_420YpCbCr8BiPlanarFullRange格式来处理Y频道。 根据苹果的文件: kCVPixelFormatType_420YpCbCr8BiPlanarFullRange双平面分量Y'CbCr 8位4:2:0,全范围(亮度= [0,255]色度= [1,255])。 baseAddr指向一个大端的CVPlanarPixelBufferInfo_YCbCrBiPlanar结构。 我想在UIViewController中展示一些这些框架,是否有任何API来转换为kCVPixelFormatType_32BGRA格式? 你能否提供一些提示来调整这个由苹果提供的方法? // Create a UIImage from sample buffer data – (UIImage *) imageFromSampleBuffer:(CMSampleBufferRef) sampleBuffer { // Get a CMSampleBuffer's Core Video image buffer for the media data CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer); // Lock the base address of the pixel buffer CVPixelBufferLockBaseAddress(imageBuffer, 0); // Get the number of […]

我如何知道用户点击iPhone中播放控件的快进和快退button

我想实施以下的事情, 应用程序在后台运行音乐或video(使用MPMoviePlayerController )。 用户双击主页button,进入显示播放控制的第一个屏幕(快退,播放或暂停,快进button) 用户点击快退或快进button。 然后,应用播放上一个或下一个音乐或video。 第三步,我应该知道哪个button被点击。 (正如我自然知道,当前正在播放的项目已暂停,停止..使用MPMoviePlayerPlaybackStateDidChangeNotification通知)。 我应该注册哪个通知? 或者还有其他的方法吗?

如何使用Swift实时过滤video

是可以应用filter到AVLayer并添加它作为addSublayer 查看 ? 我想改变颜色,并添加一些噪音的相机使用斯威夫特video,我不知道如何。 我想,可以像这样添加filterLayer和previewLayer : self.view.layer.addSublayer(previewLayer) self.view.layer.addSublayer(filterLayer) 这也许可以用我的自定义filter创buildvideo,但我认为,这可能会更有效地使用AVComposition 所以我需要知道: 将滤镜应用于相机video输出的最简单方法是什么? 是否可以合并AVCaptureVideoPreviewLayer和CALayer ? 感谢您的每一个build议..

IOS上的WaveForm

我正在寻找如何绘制声音的幅度。 我发现http://supermegaultragroovy.com/2009/10/06/drawing-waveforms/,但我有一些问题。 如何得到表示audio的浮点值列表?

iOS AVFoundation:设置video的方向

我一直在努力解决在iOS设备上捕获过程中和之后的video方向问题。 由于之前的答案和苹果的文件,我已经能够弄清楚了。 不过,现在我想把一些video推到一个网站,我遇到了一些特殊的问题。 我在这个问题中特别提到了这个问题 ,并且提出的解决scheme需要在video编码期间设置定向选项。 这可能是,但我不知道如何去做这件事。 关于设置方向的文档是关于正确设置以显示在设备上的,我已经实现了在这里find的build议。 但是,这个build议并不能解决非苹果软件(如VLC或Chrome浏览器)的正确设置方向。 任何人都可以提供深入了解如何正确设置方向的设备,使其显示正确的所有查看软件?

iOS:从相机获取逐像素数据

我意识到AVFoundation和它的捕获支持(虽然不太熟悉)。 但是,我没有看到任何可以轻松访问的API来获取逐像素的数据(RGB-per-pixel或类似的)。 我记得在文档中读到这是可能的,但我真的不知道如何。 所以: 可以这样做吗? 如果是这样,怎么样? 我会得到原始图像数据,还是被JPEG压缩的数据?