Tag: video操作

Webkit – 在iPhone上玩游戏

我目前正在处理一个有很多video的项目,这个项目需要在iphone上工作。 但实际上,ios的video占位符不允许我滚动页面。 我尝试在我的video标签上应用webkit-playsinline属性,但不起作用。 有没有办法 – 在完整的HTML5 / JS – 防止iosvideo​​播放器的原生行为? 我注意到,这个问题只在iphone(ios 7),而不是ipad。 谢谢 ! 这里我的video标签: <video vineresizer preload="auto" poster="{{vine.src_poster}}" loop webkit-playsinline="webkit-playsinline" controls="controls"> <source ng-src="{{ trustSrc(vine.src_video) }}" type="video/mp4"> </video> 而我的js: var video = element[0]; video.addEventListener('contextmenu', function (e) { e.preventDefault(); e.stopPropagation(); }, false); if (video.hasAttribute('controls')) { video.removeAttribute('controls'); }

FFmpeg iosvideo​​stream的示例代码

我已经完成Video Encoding在iOS中使用AVFoundation框架。 现在我想用FFMPEG将这些videostream传输到RTMP服务器。 如果你们中的任何一个人发布链接/示例代码来实现这一点,IT将会非常有帮助。 除此之外的任何其他解决scheme也被邀请。 提前感谢你。

录制,在iOS中使用运行MPMoviePlayerController的HTTP Livevideostream快照

我正在使用iOS应用程序,在其中播放HTTP Livestream式video。 所以,我经历了一些在互联网上的教程,以及我如何在iOS中的MPMoviePlayerController中播放HTTP实时stream式video。 但是我还有另外一个问题,那就是我不得不在iOS上拍摄运行stream式video的快照,而且我必须logging直播video。 我在网上search。 我真的没有find任何好的教程。 我必须用这两天完成它。 所以请帮助我。 当我试图采取屏幕截图,我试图用thumbnailImageAtTime:moviePlayerController.currentPlaybackTime timeOption:MPMovieTimeOptionExact,但它能够得到只为本地文件不为streamvideo的缩略图。 而且我没有find任何来源来logging直播video。 请帮我解决一下这个。 我会非常感激你的。 提前致谢。

iOS确定video中的帧数

如果我在Swift中有一个MPMoviePlayerController: MPMoviePlayerController mp = MPMoviePlayerController(contentURL: url) 有没有一种方法可以得到位于url的video中的帧数? 如果没有,有没有其他方法来确定帧数?

移动YouTube页面如何在iOS上自动播放video?

我试图得到它的理解,但经过两天的代码挖掘,我想我会在这里发表我的问题… 根据苹果的文档,iOS设备上的自动播放video无法在没有用户交互的情况下完成(例如点击video)。 尽pipe如此,移动YouTube(m.youtube.com)能够在用video加载页面之后自动播放video。 有谁知道他们是怎么做到的? PS。 我已经在iOS网站上检查了所有可用的自动播放video的JS / HTML技术(例如iframe,虚假点击,触发video触摸事件,使用XHR获取video)。

如何在iOS中裁剪video

我正在看看苹果提供的RosyWriter示例代码作为起点,我想find一个如何裁剪video的方法。 所以我有从iPhone相机的全分辨率video,但我只是想使用它的裁剪部分(也旋转此子部分)。 我想在captureOutput:didOutputSampleBuffer: fromConnection:我可以通过修改我传入的CMSampleBufferRef修改每个帧。 所以我现在的问题是: 这是裁剪我的video的正确的地方吗? 我在哪里指定最终的video(保存到光盘上)的分辨率比AVCaptureSession捕获的完整video小? 设置AVVideoWidthKey和AVVideoHeightKey不起作用。 我如何裁剪video,仍然有良好的performance? 任何帮助表示赞赏! 非常感谢! 编辑: 也许我只需要知道如何通过将video的图像旋转90度然后再次放大以适应宽度来拍摄纵向拍摄的video…?!?

使用AVMutableVideoComposition导出时的video方向问题

这是我用来导出video的function: – (void) videoOutput { //1 – Early exit if there's no video file selected if (!self.videoAsset) { UIAlertView *alert = [[UIAlertView alloc] initWithTitle:@"Error" message:@"Please Load a Video Asset First" delegate:nil cancelButtonTitle:@"OK" otherButtonTitles:nil]; [alert show]; return; } // 2 – Create AVMutableComposition object. This object will hold your AVMutableCompositionTrack instances. AVMutableComposition *mixComposition = [[AVMutableComposition alloc] […]

如何在Iphone Phonegap中播放embedded式video

我正在使用Phonegap创build一个应用程序,并且必须有内联video。 当我把内联video的代码,它在ipad上工作很好,但它不适用于iPhone。 在iPhone上,它只是自动全屏。 我已经尝试在config.xml文件中放置一个首选项窗格,但它仍然不起作用。 代码如下: config.xml中 <preference name="AllowInlineMediaPlayback" value="true" /> 的index.html <video width="95%" style="display: block; margin: auto; margin-top: 10%;border: 1px inset #bbbbbb;" autoplay="" id="video" webkit-playsinline> <source src="used_files/lesson2_1.mp4" type="video/mp4" id="video"> Your browser does not support the video tag. </video>

获取video的当前时间(玩家 – Swift)

我使用播放器 (使用AVFoundation)设置了一个video播放器 。 我试图访问和操作video的currentTime,但是,图书馆只提供video的持续时间,而不是currentTime。 我正在调整播放器的演示项目 。 请检查下面的“更新”部分,而不是在这里: 一个朋友告诉我,我可以用这种方法来实现,但是在这种情况下,我实际上无法调整这个方法。 [NSTimer scheduledTimerWithInterval:1.0 target:self selector:@selector(refreshCurrentTimeTextField) userInfo:nil repeats:YES] -(void)refreshCurrentTimeTextField { NSTimeInterval currentTime; QTMovie *movie = [movieView movie]; QTGetTimeInterval([movie currentTime], &currentTime); int hours = currentTime/3600; int minutes = (currentTime/60) % 60; int seconds = currentTime % 60; NSString *timeLabel; if(hours > 0) { timeLabel = [NSString stringWithFormat:@"%02i:%02i:%02i", hours, minutes, seconds]; […]

UIWebView本地video/audio播放iOS不工作,使用meteor(PhoneGap)

我使用meteor来构build一个非常简单的应用程序(理论上)。 基本上是一个播放button,应该开始一个video。 这听起来很简单,但在iOS UIWebView中如何处理<video>和<audio>标签似乎有些根本性的错误。 我的理解是Meteor使用本地服务器,因此您可以从Meteor应用程序的/public -folder中加载资源文件。 这符合图像的预期: <img src="/images/image.png"> 但是,对video和audio标签执行相同的操作也会引发意外的错误。 远程加载文件也可以正常工作,但是当video/audio成为本地文件系统的一部分时,UIWebView似乎会变得混乱到如何处理它。 我已经用Cordova的File和FileTransfer插件进行了试验,以获取,移动,获取nativeURLs,并重新组织这些文件,使其具有任何意义,但是<video>和<audio>元素仍然会抛出错误。 我甚至尝试将audio文件转换为base64string,并将其直接embedded到标记中。 这也不pipe用。 最后,我尝试了简单的XHR,将文件作为一个blob检索,然后制作一个URL: var xhr = new XMLHttpRequest(); xhr.open("get", "/videos/example.mp4"); xhr.responseType = "blob"; xhr.addEventListener("load", function() { var blob = this.response; var url = window.URL.createObjectURL(blob); $("video")[0].src = url; }); 仍然没有运气。 请注意,我试过的一切工作的图像文件,但不是audio/video。 很难说出问题的起因,UIWebView如何处理请求的video/audio文件,或者Meteor的小型networking服务器设置中的问题,它用于打包的PhoneGap iOS应用程序。 无论如何,是否有解决方法?