Tag: rtp

iOS RTP现场audio接收

我试图在我的iPhone中收到一个实时的RTPaudiostream,但我不知道如何开始。 我正在寻找一些样品,但我找不到他们的任何地方。 我有一个Windows桌面应用程序,它从所选的audio接口捕获audio,并将其作为μ律或a律传输。 这个应用程序作为一个audio服务器,提供任何传入的stream连接的连接。 我不得不说,我已经开发了一个接收该stream的Android应用程序,它的工作原理,所以我想在iOS上复制这个function。 在Android中,我们有“android.net.rtp”包来pipe理这个并通过networking传输或接收数据stream。 有没有任何一种类似的包来实现这个iOS? 你可以给我任何参考/样品做这个,或者告诉我从哪里开始?

从quicktime MOV文件parsingh.264 NAL单元

我试图从iPhone上的MOV文件中获得h.264 NAL单元,以便将从iPhone相机到服务器的RTP h.264video。 苹果的API不允许从摄像机输出直接访问编码的比特stream,所以我只能在正在写入的时候访问MOV文件。 根据苹果的MOV结构参考 ,我已经将MOV文件parsing为Atoms ,但是现在我需要从mdatprimefaces中提取NAL单元 ,以便将其打包到RTP并进行stream式处理。 我很乐意在这里得到一些帮助,因为我找不到有关mdat结构的文档。 谢谢!

H.264 over RTP / RTSP(iPhone)

在iPhone中原生可以通过RTP / RTSP查看videostream(H.264 Live Feed)吗? 如果没有,是否可以为此写一个应用程序?

如何使用GStreamer在iOS 8中使用AVSampleBufferDisplayLayer进行RTP H264stream处理?

在获得了iOS 8程序员可以使用的HW-H264-Decoder的通知之后,我想现在就使用它。 那里有一个很好的介绍,从WWDC 2014直接访问video编码和解码。 你可以看看这里 基于案例1,我开始开发一个应用程序,它应该能够从GStreamer获得一个H264-RTP-UDP-Stream,将其沉入一个“appsink”元素中,以直接访问NAL单元,转换为创buildCMSampleBuffers,我的AVSampleBufferDisplayLayer可以显示然后。 有趣的一段代码做了以下所有的事情: // // GStreamerBackend.m // #import "GStreamerBackend.h" NSString * const naluTypesStrings[] = { @"Unspecified (non-VCL)", @"Coded slice of a non-IDR picture (VCL)", @"Coded slice data partition A (VCL)", @"Coded slice data partition B (VCL)", @"Coded slice data partition C (VCL)", @"Coded slice of an IDR picture (VCL)", @"Supplemental enhancement […]