Tag: rtsp

如何streamh.264video发送到WOWZA使用rtsp与live555

我是新的捕获video,编码h.264,WOWZA服务器。 我已经检查了堆栈溢出和谷歌这么多的解决scheme,但不能完美的,我可以使用。 基本function: 继续从iPhone捕捉(video应该是h.264编码) 使用live555库,生成RTSPurl 将相同的video发送到WOWZA服务器上进行直播video 注意:video应该从iphone设备连续播放服务器没有大的延迟。 我的问题: 如何捕捉以h.264格式编码的video? 如何将live555库集成到VideoCapture类中以生成RTSP URL? 如何使用RTSP协议将video发送给WOWZA? 在ios上使用AV框架捕捉video。 请纠正我,如果我的想法是错误的。 谢谢,Punita

为ffmpeg rtspstream播放设置audio队列

我正在使用ffmpeg为iOSdevise一个rtspstream(AAC格式)客户端。 现在我只能说我的应用程序是可行的,但stream媒体的声音非常嘈杂,甚至有点扭曲,远远低于当它由vlc或mplayer播放时。 该stream由av_read_frame()读取,由avcodec_decode_audio3()解码。 然后,我只是将解码的原始audio发送到audio队列。 当用我的应用程序解码本地aac文件时,声音看起来并​​不那么嘈杂。 我知道初始编码会显着影响结果。 但至less我应该尝试让它听起来像其他stream媒体客户端… 我的实现/修改中的许多部分实际上来自尝试和错误。 我相信我在设置audio队列方面做了一些错误,并且在填充audio缓冲区时使用了callback函数。 任何提示,build议或帮助,不胜感激。 // – 由av_dump_format()转储的testing材料的信息 – Metadata: title : /demo/test.3gp Duration: 00:00:30.11, start: 0.000000, bitrate: N/A Stream #0:0: Audio: aac, 32000 Hz, stereo, s16 aac Advanced Audio Coding // – audio队列设置程序 – – (void) startPlayback { OSStatus err = 0; if(playState.playing) return; playState.started = false; if(!playState.queue) { […]

MobileVLCKit在编译时失败

我正在尝试在我的应用程序中使用iOS的MobileVLCKit。 我遵循了为iOS构build框架的步骤。 我在Xcode 5中设置了部署到iOS 7的目标。 我用命令./buildMobileVLCKit.sh -f -l来编译shell文件来获得一个iOS框架。 我的terminal应用程序出现以下错误。 The following build commands failed: Libtool build/MobileVLCKit.build/Release-iphoneos/MobileVLCKit.build/Objects-normal/armv7/libMobileVLCKit.a normal armv7 Libtool build/MobileVLCKit.build/Release-iphoneos/MobileVLCKit.build/Objects-normal/armv7s/libMobileVLCKit.a normal armv7s CreateUniversalBinary build/Release-iphoneos/libMobileVLCKit.a normal armv7\ armv7s 我尝试了谷歌的所有方式,但没有奏效。 试了一整天后,我提出了这个问题。 如果你以前使用过这个,请帮忙。

RTSP / RTMPvideostream客户端iOS

我需要一个开源的解决scheme/库来将RTSP / RTMP传输到iOS应用程序。 我需要构build一个连接到媒体服务器的应用程序,并打开提供的videostream。 我相信在那里必须有图书馆,但是我还没有find一个开放源代码,编译,实际工作,并在iOS 5 +,iPhone 4 +上运行。 我没有偏好, RTMP或RTSP就足够了。 最好是工作量最less的那个。 我有RTSP在Android方面的工作,但没有任何iOS的。 这就是我今天从研究中已经知道的 – RTSP 似乎可能使用Live555 / FFMPEG MooncatVenture Group – 旧的FFMPEG,与ARMv7s不兼容(一年内没有更新/博客/提交) DFURTSPPlayer – 这是一个工作的例子。 RTMP 似乎可能使用Live555 / FFMPEG 有一些图书馆在那里进行数据通讯,不过就是这样 MidnightCoders项目 – 似乎没有video支持尚未build立,因为audio不是。 我从来没有把任何与之前相关的video搞混,所以编码,帧速率,关键帧,大块等等对我来说是非常陌生的。 现在,似乎从Live555 / FFMPEG构build一个静态二进制文件是我的问题的唯一解决scheme。 如果是这样,任何人都可以给我一个简单的快速入门指南或链接到一个博客/例如有人在那里? 我不是在寻找任何疯狂的东西,只是一个简单的 下载这个 – LINK 像这样编译 – LINK 将其放入Xcode的X文件夹中 创buildX对象 在这里阅读streamAPI – LINK 如果没有,任何人都想指向我一个工作的开源库? 哦,是的,这恰好是我的第一个iPhone应用程序,第一次在Objective-C中。 真棒第一个项目,是吗?

RTSPvideostream为iOS

我想在iPhone屏幕上显示videostreamRTSP 。 可以抛出项目的源代码或细节如何实现它。 find2个项目,但他们没有编译: https://github.com/mooncatventures-group/RTSPPlay https://github.com/mooncatventures-group/RtspFrames-test 来自网站VLC源代码也不编译,没有文件。 告诉我,是否有可能将stream录制到video文件中? 它是如何实现的? 提前致谢。