Tag: videostream

来自iPhone的streamvideo

我在iPhone库中有一些video文件,我正在开发iPhone应用程序,将video从我的iPhone传输到其他设备。 我已经在iPhone端开发了服务器。 我的问题是,我怎么能stream这个video文件到iPhone的另一个设备或服务器。 另一个问题是我已经完成了苹果mediafilesegmenter的video段,并生成ts和m3u8文件。我想知道什么是不同的,如果我给链接m3u8文件(这就是所谓的httpstream可能)或链接到直接video文件,mp4)给渲染器。 提前致谢

video直播需要什么types的服务器?

我正在制作一个iPhone应用程序,将video发送到服务器进行直播,我想知道我们需要一个媒体服务器吗?

如何在iOS中播放YouTubevideo不全屏?

我一直在试图让YouTube音乐video在我的iOS应用程序中在一个小窗口(不是全屏)中播放,无法使其工作。 我已经尝试了以下内容: 我首先使用YouTube API,并按照此处的说明创build了YTPlayerView: https : //developers.google.com/youtube/v3/guides/ios_youtube_helper#adding_ytplayerview 。 这使我可以在线播放video,但许多video由于许可问题而无法播放,声明"This video contains content from *. It is restricted from playback on certain sites." 然后我尝试使用一个UIWebView,它成功地播放了以前不可用的音乐video。 但是,即使设置了webView.allowsInlineMediaPlayback = YES; ,这些video也总是被迫以全屏模式播放webView.allowsInlineMediaPlayback = YES; 我也尝试使用这里讨论的技术embeddedvideo: 如何在YouTube上embeddedYouTubevideo,并直接在UIWebview上播放,而不是全屏 。 这有助于保持video内联,但再次,使某些video无法播放。 我终于尝试使用MPMoviePlayerController,但后来发现它不能真正播放YouTubevideo,因为我们没有访问video文件的直接链接,所以这是另一个不行。 像PingTune这样的应用程序显然能够使用YouTube来解决这个问题 – 他们能够以自定义,非全屏视图播放YouTube音乐video,而无需投放广告 – 我错过了什么? 是否有YouTube API的一部分允许我播放这些我错误实施的音乐video?

iOS支持HTTP Live Streaming之外的任何东西吗?

如果将videostream式传输到iOS设备,是否必须使用HTTP实时stream式传输? 是否支持HDS? 问题是我们的存储空间有限,HTTP Live Streaming需要我们有更多的video文件。 有人能就这些事情给我一些解释吗?

在离线模式下播放YouTubevideo?

当我们从互联网区域redirect到非互联网区域时,我想播放YouTubevideo。 就像我在某个时候有互联网接入,我玩了Youtube的video,之后 次我的互联网连接松动,但现在我想播放所有我玩过的video 先前。

苹果政策为httpstream媒体直播应用程序

以下是需要采用http实时stream媒体技术的应用程序的要求 , 如果您的应用通过蜂窝networking传输video,并且video在五分钟内超过10分钟或5 MB数据,则需要使用HTTP实时stream传输。 (渐进式下载可用于较小的剪辑。) 如果您的应用使用通过蜂窝networking进行的HTTP实时stream传输,则您需要至less提供一个64 Kbps或更低带宽的stream(低带宽stream可能是纯audio或带有静止图像的audio)。 这些要求适用于提交在App Store中分发以用于Apple产品的iOS应用程序。 不合规的应用程序可能会被苹果拒绝或删除。 在5分钟内设置10分钟或5MB的限制的真正目的是什么? 那么使用这两个具体数据的原因是什么? 为什么将阈值设置为64 kps?

videostream在Websockets

我正在尝试构build移动应用程序,可以从两边传输video(即video通话等)。 我看着webrtc,但还没有准备好移动原生应用程序,反正webrtc正在做的是让浏览器直接捕获相机和audio,而不需要插件等。但在原生移动应用程序捕捉相机和audio不是一个问题基本上需要非常低的延迟和双重传输层。 在很多文章和地方,我读到关于使用WebSocket的websocket。 所以我想我可以使用websocketsstream式传输video。 这是正确的还是我错过了什么? 我知道有一个更多的差异,webrtc直接客户端到客户端…而websocket将客户端服务器客户端,有无论如何,以避免它。 那这意味着什么延迟的条件。

通过rtmp在iOS上进行stream式传输

我拼命寻找一个解决scheme,通过iOS上的Red5服务器rtmpstream。 我无法让我的Xcode项目rtmp c lib工作。 任何人都可以请发表任何教程? 或者分享一些其他解决scheme?

FFmpeg iosvideo​​stream的示例代码

我已经完成Video Encoding在iOS中使用AVFoundation框架。 现在我想用FFMPEG将这些videostream传输到RTMP服务器。 如果你们中的任何一个人发布链接/示例代码来实现这一点,IT将会非常有帮助。 除此之外的任何其他解决scheme也被邀请。 提前感谢你。

在检索比特率时,无法使用HLS获取AVAsset的音轨

我在我的应用程序中使用HLSstream,我正在使用AVPlayer。 现在我想使用AVAsset获得video轨道的比特率。 虽然我添加了观察者和其他的东西,我总是听到数组为空。我是正确的轨道还是失去了什么?