videostream在Websockets

我正在尝试构build移动应用程序,可以从两边传输video(即video通话等)。

我看着webrtc,但还没有准备好移动原生应用程序,反正webrtc正在做的是让浏览器直接捕获相机和audio,而不需要插件等。但在原生移动应用程序捕捉相机和audio不是一个问题基本上需要非常低的延迟和双重传输层。 在很多文章和地方,我读到关于使用WebSocket的websocket。

所以我想我可以使用websocketsstream式传输video。 这是正确的还是我错过了什么?

我知道有一个更多的差异,webrtc直接客户端到客户端…而websocket将客户端服务器客户端,有无论如何,以避免它。 那这意味着什么延迟的条件。

你错过了一些东西。

  • webRTC在手机上运行得非常好。 webrtc.org的参考代码(appRTCDEMO)中有iOS和Android的示例/白客户端,以及多个应用程序。 最后一个被宣布出现

  • 从stream中获取video和audiostream是媒体API的一部分,而不是每个人都说的webRTC API(getusermedia)。

  • webRTC实际上是等式的p2p连接(RTCPeerConnection:传输和防火墙遍历)和媒体引擎(编码,打包,encryption)以及您正在寻找的内容。

  • webSockets只是一个传输机制。 它不处理防火墙/ NAT穿越,媒体处理和打包/分块,然后您可以在应用程序级别实施。

  • 信令而言,webRTC并没有指定/强加任何协议,看似平常的做法是build立一个信令服务器。 该应用程序通常使用Web套接字或XHR或其他方式连接到该服务器进行原始握手/呼叫build立。 许多应用程序通过使用像socket.io这样的库来抽象。