Tag: videostream

什么技术是最好的生活streamiPhone摄像机数据到电脑?

我想将video从iPhone相机传输到在Mac上运行的应用程序。 认为像video聊天,但只有一种方式,从设备到接收器应用程序(而不是video聊天)。 我迄今为止的基本了解: 你可以使用AVFoundation来获取“实时”摄像机数据而不保存到文件,但它是未压缩的数据,因此我必须自己处理压缩。 没有内置的AVCaptureOutput支持发送到networking位置,我不得不自己工作了一下。 我是对的上述还是我已经偏离? Apple Tech Q&A 1702提供了一些有关将各个帧保存为图像的信息 – 这是最好的方法吗? 只需节省30fps,然后像ffmpeg压缩'EM? 关于直播到iPhone的讨论有很多讨论,但发送现场video的人的信息要less得多。 我希望有一些广泛的笔触让我指出正确的方向。

检测<embed>标记无法加载video

我试图用下面的embedded标签(在iPad / iOS上)捕获错误: <embed width="320" height="240" src="path/to/my/live/stream/playlist.m3u8" type="application/vnd.apple.mpegurl" postdomevents="true" id="movie1" /> 我试图用以下方法来解决它: $("#movie1").on('onerror', function() { alert('error!') } ); 我也尝试了onabort , onstalled , onended和onsuspend – 当video加载失败时都不会产生事件。

如何使用媒体分段器分割video?

我已经阅读了很多关于HTTP Live Streaming文档。 但我仍然在尝试解决scheme..我已经转换我的video.ts格式与ffmpeg 。 现在我知道我必须分割我的video,并且必须使用mediasegmenter创build播放列表。 但是我不知道mediasegmenter在哪里,以及如何使用它来分割video。 我很新,所以对于这个愚蠢的问题感到抱歉。 任何帮助,将不胜感激..!! 提前致谢..!!

如何从iPhonestream式video作为服务器?

我正在开发一款适用于iOS的应用程序,其中一台iPhone必须将其摄像机录制内容stream式传输到另一台iPhone(为了保持简单,两者都在同一个Wi-Finetworking中)。 stream应该没有物理互连(例如,用于将stream路由到客户端的服务器)。 实际上, 录制的iPhone应该是服务于其他iPhone(或者networking中更多的其他iOS设备)的直播stream的服务器。 所以,我需要做的是: 从相机获取现场照片 处理这些数据,如果需要 逐帧发送到连接的客户端( TCP? ) 接收客户端上的帧并实时显示它们 我有什么和我坚持什么: 我已经解决了问题1.我使用一个不断返回CMSampleBufferRef (在这里find)的AVCaptureSession 。 我不确定我需要做什么与CMSampleBufferRef 。 我知道如何将它转换为CGImage或UIImage (感谢Benjamin Loulier的博客post2 ),但我不知道具体需要发送什么,以及是否需要以某种方式对帧进行编码。 正如在上面的链接答案( this )中@jab所提到的,可以用一个或多个AVAssetWriter将这些示例写入文件。 但是他又说,这些5秒钟的video片段将被上传到一个服务器上,这个服务器可以将一个stream式传输的电影文件从电脑上传出来(然后这个电影可以通过HTTP Live Streaming式传输到iOS设备上)。 正如我已经指出,我的应用程序(即video捕捉“服务器”设备)有一个或多个客户端连接到它,并需要实时发送video帧给他们。 我想到的一个想法是使用一个简单的TCP连接,即服务器以循环的格式将每一帧以串行格式发送给连接的客户端。 更具体地说:当一个缓冲帧成功发送到客户端时,服务器将最近的帧作为下一个帧发送。 现在:这是正确的想法应该如何工作? 或者还有另外一个协议,它更适合这种任务吗? 请记住:我想保持简单(对我来说很简单,也就是说,我不需要学习太多新的编程方面)并且很快。 我已经知道TCP的一些东西了,我用C在学校写了服务器和客户端,所以我宁愿把我现在的知识应用到这个项目中。 最后但并非最不重要的是,接收客户: 我想,如果我真的要使用TCP连接,在客户端,我从服务器接收帧后,将读取的字节包转换为使用的格式( CMSampleBuffer , CGImage , UIImage ),并只显示它在CALayer或UIImageView ,对不对? 电影的效果将通过不断更新图像视图而得到。 请给我一些关于如何达到这个目标的想法。 这是非常重要的,因为它是我的学校gradle项目的一部分…任何示例代码也赞赏;-)或者只是引用我到另一个网站,教程,Stackoverflow的答案等。 如果您有任何问题,请留下评论,我会更新post。

AVSampleBufferDisplayLayer如何显示H.264

我想分享一下我在一些日子里所学到的知识。 没有很多发现。 我仍然对这个声音感到兴奋。 欢迎提出意见和build议。 😉

iOSvideostream,然后存储在设备上

到目前为止,我知道如何stream式传输video,以及如何下载video,然后进行stream式传输,但这里有一个棘手的问题:stream式传输一次,将其存储在设备上,以后再从设备上播放。 那可能吗?

错误代码-8969,-12909,同时在iOS 8中使用video工具框解码h264

我有在附录B格式的h264stream,并按照此链接在 iOS8 videoToolBox实现h264解码。 我每一步都检查OSStatus。 使用CMVideoFormatDescriptionCreateFromH264ParameterSets与SPS和PPS数据创build一个CMFormatDescription。(status == noErr) 使用VTDecompressionSessionCreate创build一个VTDecompressionSession。 (status == noErr) 将NALUnit有效载荷捕获到CMBlockBuffer中,确保使用replace开始代码 一个字节长度的代码。 (status == noErr) 创build一个CMSampleBuffer。 (status == noErr) 使用VTDecompressionSessionDecodeFrame并在callback函数中获得错误代码-8969(模拟器),-12909(设备)。 我怀疑我在第三步做了什么错误,我不太确定长度代码的含义。 我只是按照WWDC会话videoreplace每个NALUnit开始代码00 00 00 01到00 00 80 00.是对还是不对? 或者我应该检查别的东西? 谢谢

iOS的video编码库

我真的很担心这个问题,因为我没有看到互联网上关于iOS的video编码的足够的信息,但是我们可以观察到大量的应用程序成功地处理videostream(Skype,qik,justin.tv等)的问题。) 我打算开发一个应用程序,它应该将从摄像机获得的video帧以h.263(h.264或MPEG-4,它正在处理中)编码到networking服务器。 为此,我需要一些video编码库。 显然,ffmpeg可以处理这个任务,但是它在LGPL许可下,这可能会导致在AppStore中提交应用程序时出现一些问题。 另一方面,有一些应用程序似乎使用ffmpeg库,但只有Timelapser在应用程序描述中清楚地说明了这一点。 这是否意味着,其他应用程序不使用ffmpeg或只是隐藏这些信息? 请分享您的想法和经验在这个题目。 我开放的话题。

适用于iPhone / iPad的HTML5video。 如何检测连接速度?

我需要以最佳质量在Safari浏览器中传输video。 我创build了两个video文件:一个是低速的3G速度,一个是高质量的WiFi宽带stream。 我注意到一些应用程序(例如YouTube)能够检测到移动设备是通过3G还是WiFi运行,所以select一个小尺寸的video而不是高质量的video。 现在,这是我的DOM / Javascript代码, $ v值被replace为PHP,并包含video文件名: <video id="thevideo" src="streaming/video_<?=$v ?>.m4v" width="600" height="360" width="640" height="360" preload="preload" controls="controls" autoplay="autoplay"> flowplayer/video<?=$v ?>.m4v </video> <script type="text/javascript"> var myvideo = document.getElementById("thevideo"); myvideo.load(); myvideo.play(); </script> 我可以用Javascript / Webkit写一些能够检测连接模式的东西吗? 谢谢大家。

使用AVAssetReader从远程资产读取(stream)

我的主要目标是从服务器stream式传输video,并在stream式传输时逐帧剪切(以便OpenGL可以使用)。 为此,我使用了在互联网上随处可见的代码(我记得它来自Apple的GLVideoFrame示例代码): NSArray * tracks = [asset tracks]; NSLog(@"%d", tracks.count); for(AVAssetTrack* track in tracks) { NSLog(@"type: %@", [track mediaType]); initialFPS = track.nominalFrameRate; width = (GLuint)track.naturalSize.width; height = (GLuint)track.naturalSize.height; NSError * error = nil; // _movieReader is a member variable @try { self._movieReader = [[[AVAssetReader alloc] initWithAsset:asset error:&error] autorelease]; } @catch (NSException *exception) { NSLog(@"%@ — […]