实况video如何从iOS设备stream式传输到服务器?

我希望能够将iOS设备上的实时videostream式传输到服务器上。 我试图使用一个AVCaptureOutput捕获每个框架作为CMSampleBuffer并附加它使用AVAssetWriter ,但我不知道什么时候或如何从文件的input,并将其发送到服务器。 如何格式化? 我怎么知道什么时候发送?

虽然我没有与你分享任何代码,但我与你分享我的逻辑,我在我的应用程序中做了什么。

第一种方式(简单的方法):有许多低成本的第三方库供您使用。

第二种方式(比较困难的一种):创build一小段video,例如2秒或更less,将它们保持在队列中,并将其上传到服务器上(不要使用networkingafnetworkinghttp方法,这会减慢进程的速度。 node.js或其他)。 并保留一个文本文件或数据库条目,你保持块文件及其序列的轨道。 一旦你的第一块上传,你可以使用ffmpg从实际的块创buildvideo,你得到的块添加到主video文件,如果你在设备上播放实际的video,你不必做任何更多的修改,它会自动获取新的部分,一旦它在服务器上更改。

谢谢。 希望它可以帮助你。