Tag: video操作

videoembedded在与iOS6模拟器或设备UIWebview不工作的链接上

iOS 6的webview有一个呈现video的问题? 🙁 我的代码是一个简单的调用webview的loadRequest方法: self.webview.scalesPageToFit = YES; [self.webview loadRequest:[NSURLRequest requestWithURL:[NSURL URLWithString:@"http://www.youtube.com/watch?v=3WEpUAQ7fa8"]]]; cosole说: [MPAVController] Autoplay: Enabling autoplay [MPAVController] Autoplay: Disabling autoplay for pause [MPAVController] Autoplay: Disabling autoplay [MPAVController] Autoplay: Ending background task assertion (8) for playback stall [MPAVController] Autoplay: _streamLikelyToKeepUp: 0 -> 1 [MPAVController] Autoplay: Skipping autoplay, disabled (for current item: 1, on player: 1) 我提到这个答案,但徒劳无功。 […]

video不会在iPhone 5.0模拟器上播放

Im新的xCode编程,我得到了这个代码从电子书教程播放mp4 xCode。 从一个button触发的function (IBAction)playMovie:(id)sender { NSString *filepath = [[NSBundle mainBundle] pathForResource:@"videoSample" ofType:@"mp4"]; NSURL *fileURL = [NSURL fileURLWithPath:filepath]; MPMoviePlayerController *moviePlayerController = [[MPMoviePlayerController alloc] initWithContentURL:fileURL]; [[NSNotificationCenter defaultCenter]addObserver:self selector:@selector(moviePlaybackComplete:) name:MPMoviePlayerPlaybackDidFinishNotification object:moviePlayerController]; [self.view addSubview:moviePlayerController.view]; moviePlayerController.fullscreen=YES; [moviePlayerController play]; moviePlayerController.scalingMode = MPMovieScalingModeFill; } 从播放电影function称为 (void)moviePlaybackComplete:(NSNotification *)notification{ MPMoviePlayerController *moviePlayerController = [notification object]; [[NSNotificationCenter defaultCenter]removeObserver:self name:MPMoviePlayerPlaybackDidFinishNotification object:moviePlayerController]; [moviePlayerController.view removeFromSuperview]; } 我build立后没有错误和警告。 它只是输出一个空白的屏幕后,我点击触发playMoviefunction的button。 我混淆谷歌它,仍然不知道如何解决问题。 […]

如何绘制到平面/ ycbcr / 420f / yuv / NV12 /不是rgb的CVPixelBufferRef?

我从包含不是RGBA (线性像素)的CVPixelBufferRef的系统API收到CMSampleBufferRef 。 缓冲区包含平面像素(如420f又名kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange又名yCbCr又称YUV )。 我想修改一些操作这个video数据,然后把它发送到VideoToolkit编码为h264 (绘制一些文本,覆盖一个标志,旋转图像等),但我希望它是有效的即时的。 Buuuut的平面图像数据看起来很肮脏的工作 – 有色度平面和亮度平面,他们是不同的大小和…在这个字节级工作似乎很多工作。 我可能可以使用CGContextRef ,只是在像素上绘制,但从我可以收集它只支持RGBA像素。 任何关于如何尽可能less地复制数据的build议,尽可能less的代码行?

audio和video合并后的video方向

我试图合并一个audio和video,但是当我将video保存到我的图书馆,这是保存。 我正在按照这个教程,但没有find任何合适的答案。 但问题是video不是肖像模式。 那么我怎样才能在我的图书馆这里得到video与肖像我试试 func mergeFilesWithUrl(videoUrl:NSURL, audioUrl:NSURL) { let mixComposition : AVMutableComposition = AVMutableComposition() var mutableCompositionVideoTrack : [AVMutableCompositionTrack] = [] var mutableCompositionAudioTrack : [AVMutableCompositionTrack] = [] let totalVideoCompositionInstruction : AVMutableVideoCompositionInstruction = AVMutableVideoCompositionInstruction() //start merge let aVideoAsset : AVAsset = AVAsset(url: videoUrl as URL) let aAudioAsset : AVAsset = AVAsset(url: audioUrl as URL) mutableCompositionVideoTrack.append(mixComposition.addMutableTrack(withMediaType: AVMediaTypeVideo, preferredTrackID: […]

哪些API可以在iOS6中实现video稳定?

根据苹果公司开发者网站(公开部分)上这个相当古老但仍然是最新的页面 ,iOS 6中的应用程序接口(API)允许访问“实时video稳定性”。 可悲的是,我找不到任何API文件似乎支持这一点。 有人能指点我的方向吗?

Objective-C如何添加覆盖到video使用AVFoundation?

我一直在试图为video添加叠加效果,现在我只是无法弄清楚为什么当我保存时,video向左旋转了九十度。 我一直在努力解决这个问题,但是和我一样接近。 目前会议预设位于AVCaptureSessionPreset1920x1080。 当我旋转video缩小,我不得不把它翻译到中心。 旋转后无法使video全屏。 请有人帮助我真的很需要它。 我会做任何事! AVURLAsset *videoAsset = [[AVURLAsset alloc] initWithURL:self.video options:nil]; AVMutableComposition *mixComposition = [AVMutableComposition composition]; AVMutableCompositionTrack *compositionVideoTrack = [mixComposition addMutableTrackWithMediaType:AVMediaTypeVideo preferredTrackID:kCMPersistentTrackID_Invalid]; AVAssetTrack *clipVideoTrack = [[videoAsset tracksWithMediaType:AVMediaTypeVideo] lastObject]; [compositionVideoTrack insertTimeRange:CMTimeRangeMake(kCMTimeZero, videoAsset.duration) ofTrack:clipVideoTrack atTime:kCMTimeZero error:nil]; [compositionVideoTrack setPreferredTransform:[[[videoAsset tracksWithMediaType:AVMediaTypeVideo] objectAtIndex:0] preferredTransform]]; CGSize videoSize = [clipVideoTrack naturalSize]; NSLog(@"WIDTH: %f HEIGHT: %f", clipVideoTrack.naturalSize.width, clipVideoTrack.naturalSize.height); CALayer *parentLayer […]

在ios中按顺序播放图像

假设我有一个video多个帧。 我想在电影播放器​​中播放这些帧。 这些帧可以在任何时间点改变。 所以它应该像一个callback,应该要求每帧和程序提供框架播放器作为回应的回叫。 IOS可以吗? 请引导我正确的方向,以实现这一目标。 提前致谢 MIA。

在iOS应用程序中使用本地video文件(xcode)

我正在寻找在我的iOS应用程序中播放video文件的最佳方式。 我的应用程序目前正在开发中,将会有大约50个video(每个30秒长)和简短的教程。 如果可能的话,我希望他们都是本地的,所以用户可以在没有互联网连接的情况下观看video。 我无法find堆栈溢出的类似问题(也许我在错误的部分查找,请纠正我,如果我错了)。 所以我想到了两个不同的select: 用户从商店下载应用程序,包括video 用户在没有video的情况下下载应用程序,首次使用应用程序时必须首先下载video并将其保存在本地(永久) 如果有更好的select,我也想知道他们! 所以如果有人有这方面的经验,我会很感激一些帮助! 谢谢

在iOS上处理video时跳过帧

我正在尝试处理本地video文件,只是对像素数据做一些分析。 没有什么是输出。 我目前的代码遍历video的每一帧,但我实际上想一次跳过〜15帧,以加快速度。 有没有办法跳过帧而不解码他们? 在Ffmpeg中,我可以简单地调用av_read_frame,而不用调用avcodec_decode_video2。 提前致谢! 这是我现在的代码: – (void) readMovie:(NSURL *)url { [self performSelectorOnMainThread:@selector(updateInfo:) withObject:@"scanning" waitUntilDone:YES]; startTime = [NSDate date]; AVURLAsset * asset = [AVURLAsset URLAssetWithURL:url options:nil]; [asset loadValuesAsynchronouslyForKeys:[NSArray arrayWithObject:@"tracks"] completionHandler: ^{ dispatch_async(dispatch_get_main_queue(), ^{ AVAssetTrack * videoTrack = nil; NSArray * tracks = [asset tracksWithMediaType:AVMediaTypeVideo]; if ([tracks count] == 1) { videoTrack = [tracks objectAtIndex:0]; […]

Swift – 如何获取iPhone上的所有照片和video列表?

我希望能够查看存储在用户iPhone上的照片和video列表,以便我们允许他们select要上传的文件。 到目前为止,我已经在列表中显示照片的地方工作,但没有显示任何video。 我用来显示照片库的代码如下: @IBAction func btnAddPicOrVideo(sender: AnyObject) { let pickerC = UIImagePickerController() pickerC.delegate = self self.presentViewController(pickerC, animated: true, completion: nil) } 正如我所提到的,我可以显示照片列表,并select其中一个很好。 问题是我无法看到或select任何video。 有没有办法指定要显示的图片和video? 或者,我必须分别显示图片和video吗? 我目前正在模拟器上运行我的代码,并在本地存储了一个video文件。 提前致谢。