Tag: video操作

iOS – 反转video文件(.mov)

要求 : 这听起来像不同,但这是我想要实现的。 我想反向制作电影(.mov)文件。 就像我们如何倒带电影文件。 我也想保持相同的帧速率,因为我的video包含。 注:我不只是想以相反的顺序播放video文件。 我想生成新的电影文件以相反的顺序播放。 我的探索 : 我想到了下面的步骤来执行相同的操作。 使用AVAssetExportSession制作具有特定帧速率的video文件块 使用AVMutableComposition和AVAssetExportSession所有这些video块合并成单个电影文件。 在合并过程中还将每个文件的audio合并到新的video文件中。 使用上述步骤,我能够实现相反的结果video文件,但我有以下关注。 video持续时间长,需要很长时间。 它也消耗巨大的CPU周期和内存来完成这个过程。 有没有人有任何其他优化的方式来实现这一目标? 任何build议将不胜感激。

如何用AVPlayerLooper循环播放video

我尝试使用AVPlayerLooper在电视操作系统应用程序中循环播放video,因为在再次播放video时,应该消除暂停/启动。 我观看了WWDC2016videohttps://developer.apple.com/videos/play/wwdc2016/503/并尝试实现代码,但不会循环。 我有一个PlayerViewControllerinheritanceAVPlayerViewController 。 我把代码让video循环。 如果我有下面的代码,它什么都不显示。 如果我把第二行self.queuePlayer = AVQueuePlayer(playerItem:playerItem) ,它只会播放一次。 let playerItem = AVPlayerItem(url: url as URL) self.queuePlayer = AVQueuePlayer() //I declared this as a variable in the view controller self.playerLayer = AVPlayerLayer(player: self.queuePlayer) //I declared this as a variable in the view controller let playerLooper = AVPlayerLooper(player: self.queuePlayer!, templateItem: playerItem) self.view.layer.addSublayer(self.playerLayer!) self.playerLayer?.frame = self.view.frame […]

肖像video到风景

我知道像这样的问题可能已经在那里,但为了像我这样的人,我会继续问 我有一个应用程序设置为只允许纵向定位,但是这个设置会影响我的video,因为我只希望video能够在横向上播放。 有没有一种方法可以添加到我的.m文件中来实现这个function? 这是我的代码; #import "BIDVideosViewController.h" @interface BIDVideosViewController () @end @implementation BIDVideosViewController @synthesize moviePlayer ; @synthesize tableList; – (id)initWithNibName:(NSString *)nibNameOrNil bundle:(NSBundle *)nibBundleOrNil { self = [super initWithNibName:nibNameOrNil bundle:nibBundleOrNil]; if (self) { // Custom initialization } return self; } – (void)viewDidLoad { [super viewDidLoad]; UITableView *table = [[UITableView alloc]initWithFrame:self.view.bounds]; [table setDelegate:self]; [table setDataSource:self]; [self.view addSubview:table]; tableList […]

通过点击button – iOS,在全屏模式下embeddedYouTubevideo

所以问题是: 我可以加载负载embeddedYouTubevideo全屏模式下,通过button点击,跳过中间UIWebView? 谷歌search给我只有一个答案 – 可能不是,但希望仍然活着。

在iPad的Safari中,如何通过Javascript获取当前的video位置?

当在iPad浏览器中播放embedded的video时,如何在Javascript中检索当前的hh:mm:ss位置(也许是播放器状态)?

iPhone全屏播放embedded式video

我创build了一个小网站,其中包含一个video与此代码: <video autoplay="autoplay"> <source src="inc/WEB_MASTER.mp4" type="video/mp4"> <source src="inc/WEB_MASTER_ios.m4v" type="video/mp4"> Your browser does not support the video tag. </video> 当我通过我的iPhone加载页面video开始播放,但它不会在网站的一部分播放,而是iPhone全屏播放video。 如何强制iPhone在网站上的相应区域播放video? 谢谢。

解码h264videostream获取图像缓冲区

我跟着这个post来解码我的h264videostream帧。 我的数据框如下: 我的代码: NSString * const naluTypesStrings[] = { @"0: Unspecified (non-VCL)", @"1: Coded slice of a non-IDR picture (VCL)", // P frame @"2: Coded slice data partition A (VCL)", @"3: Coded slice data partition B (VCL)", @"4: Coded slice data partition C (VCL)", @"5: Coded slice of an IDR picture (VCL)", // I frame […]

ios:YouTubevideo通过自定义button静音

我的应用程序包含一个带有自定义UIButtons的video来pipe理video。 通过使用Youtube iFrame API,我已经设法在UIWebView中播放YouTubevideo并隐藏所有的默认控制(全屏,音量等)。 现在我想通过自定义button来控制video。 我怎么做? – 全屏UIButton:使video全屏 – 静音/取消静音button:静音/取消静音 请参考我的另一个问题的屏幕: objective-c:通过删除默认的全屏等function来播放video 我如何解决这个问题? UIWebview中的video代码: NSString *htmlString =@"<!DOCTYPE html><html> <body><div id=\"player\"></div><script>var tag = document.createElement('script');tag.src = \"https://www.youtube.com/iframe_api\";var firstScriptTag = document.getElementsByTagName('script')[0];firstScriptTag.parentNode.insertBefore(tag, firstScriptTag);var player;function onYouTubeIframeAPIReady() {player = new YT.Player('player', {height: '196',width: '309',videoId: 'GOiIxqcbzyM',playerVars: {playsinline: 1, controls: 0}, events: {'onReady': onPlayerReady,'onStateChange': onPlayerStateChange}});}function onPlayerReady(event) {event.target.playVideo();}var done = false;function onPlayerStateChange(event) {if (event.data […]

iPhone的图像video问题在video速度

我已经完成了图像到iPhonevideo转换(当然,我从堆栈溢出问题得到的代码)。 但问题是录制video的速度非常快,即使我有2250帧左右,它在2秒内跑掉了。 我知道问题是与帧率。 但是我不知道如何使它正确。 我的代码在下面 NSArray *paths = NSSearchPathForDirectoriesInDomains(NSDocumentDirectory, NSUserDomainMask, YES); NSString *documentsDirectoryPath = [paths objectAtIndex:0]; NSString *myFilePath = [documentsDirectoryPath stringByAppendingPathComponent:@"test.mov"]; if ([self openVideoFile:myFilePath withSize:CGSizeMake (480.0, 320.0)]) { for (int i=1; i<2226; i++) { NSString *imagename=[NSString stringWithFormat:@"1 (%i).jpg",i]; UIImage *image=[ UIImage imageNamed:imagename]; [self writeImageToMovie:[image CGImage]]; } [videoWriter finishWriting]; } else { NSLog(@"friled to open video […]

如何使用Adobe AIR for iOS录制有时间限制的video

我正在尝试使用适用于iOS的Adobe AIR录制带时间限制的video。 例如,我想实现以下function。 启动CameraUI录制video之前启动一分钟计时器。 当一分钟后发生超时事件时,停止录制video,closuresCameraUI视图并获取到目前为止的video数据。 我有几个相关的问题。 如何停止从CameraUI视图外面(在这种情况下,从超时事件处理程序)录制video,然后closuresCemeraUI视图? 据我所知,要closuresCameraUI视图,唯一的方法是从CameraUI视图中按[Use Video]button或[Cancel]button。 是否有可能从外面closures它? 即使上面提到的第一个问题已经解决了,那么我怎样才能得到video数据到目前为止(在这种情况下,超时之前的video数据)。 我知道通常我们可以从完整处理程序的MediaEvent参数中获取MediaPromise对象,并从MediaPromise对象中读取video数据。 但显然在这种情况下,我们无法访问MediaPromise对象,因为完全处理程序本身不会被执行,因为没有按下[Use Video]button。 CameraUI视图打开时是否可以添加秒表以显示可能的剩余录制时间? 看来,CameraUI自动使用iOS设备的全屏幕(在我的情况下,iPad),并没有多余的空间来显示秒表。 有关于上述三个问题的解决scheme或解决方法吗? 我真的很感激,如果有人有任何想法。 提前致谢。