Tag: rtmp

如何获取原始的YUV420p相机数据

我不知道使用哪个值来获取原始YUV420p数据。 代码如下: AVCaptureVideoDataOutput *output = [[AVCaptureVideoDataOutput alloc] init]; output.alwaysDiscardsLateVideoFrames = YES; output.videoSettings = @{(id)kCVPixelBufferPixelFormatTypeKey: [NSNumber numberWithUnsignedInt:kCVPixelFormatType_420YpCbCr8BiPlanarFullRange]}; //output.videoSettings = @{(id)kCVPixelBufferPixelFormatTypeKey: [NSNumber numberWithUnsignedInt:kCVPixelFormatType_32BGRA]}; dispatch_queue_t queue; queue = dispatch_queue_create("CameraQueue", NULL); [output setSampleBufferDelegate:self queue:queue]; [session addOutput:output]; 我注意到kCVPixelFormatType有一些值,有人知道哪个值是正确的获取原始YUV420p数据? kCVPixelFormatType_420YpCbCr8Planar kCVPixelFormatType_420YpCbCr8PlanarFullRange kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange kCVPixelFormatType_420YpCbCr8BiPlanarFullRange 可以是其中之一?

WOWZA + RTMP + HTML5播放?

我有Wowza和testingRTMPstream。 现在在Wowza RTMP示例中,我现在可以: 通过Flash播放 http://www.wowza.com/gettingstarted 服务器: rtmp://xx.xx.xx.xx:1935/live stream: myStream 通过iOS5的HTML5播放 <video x-webkit-airplay="allow" type="video/m3u8" src="http://xx.xx.xx.xx:1935/live/myStream/playlist.m3u8" /> 所以,直到现在,我可以回放通过: 闪光(我不希望它结束​​) iOS的HTML5 那么如何让它发挥: 非iOS浏览器的HTML5? 对于HTML5上的iOS: <video x-webkit-airplay="allow" type="video/m3u8" src="http://xx.xx.xx.xx:1935/live/myStream/playlist.m3u8" /> 适用于Android或Windows或任何其他浏览器的HTML5?

如果编码器崩溃,自动停止YouTube直播事件

我知道YouTube API v3,允许您创build新的实时事件,然后您需要绑定与stream的广播,手动更改状态等…为了您的现场活动发表。 但是…我注意到,当远程编码器停止发送video到stream,事件继续运行。 它将继续运行,直到您手动停止stream。 我想知道是否有任何方法来自动停止stream的情况下,我的编码器崩溃,或者我可以按下推动video的移动应用程序的主页button。 如果您的编码器应用程序在stream式传输过程中发生中断,您会怎么做?您从来没有机会告诉YouTubestream式传输已经结束? 显然它会保持stream式垃圾直到你手动改变状态。 对此有何build议?

使用livu(lib)与phonegap?

Livu具有rtmpstream式传输function: http : //stevemcfarlin.com/livu/index.html 源(lib) https://github.com/otmakie/LivuLib 我使用phonegap等软件制作了几个iphone应用程序。 修改phonegap以使用livu(lib)有多难? 我想我必须编辑phonegap框架(这是写在客观的C ….) 我想我有3个select: 实践目标c更多并编辑phonegap框架 雇人写手机插件。 实践目标C /聘请程序员,并完全原生。 当我编译livu lib,我有: librtmp.a (from the rtmp xCode output) libavcodec.a libavcore.a libavdevice.a libavfilter.a libavformat.a libavutil.a libswscale.a 等等,我如何使用它们? (什么是.a文件?)

通过rtmp在iOS上进行stream式传输

我拼命寻找一个解决scheme,通过iOS上的Red5服务器rtmpstream。 我无法让我的Xcode项目rtmp c lib工作。 任何人都可以请发表任何教程? 或者分享一些其他解决scheme?

iOS上通过RTMP上的H264videostream

有一点挖掘,我已经find了一个库,从正在写入的.mp4文件中提取NAL单元。 我试图打包这个信息flv通过使用libavformat和libavcodec RTMP。 我使用以下方法设置videostream: -(void)setupVideoStream { int ret = 0; videoCodec = avcodec_find_decoder(STREAM_VIDEO_CODEC); if (videoCodec == nil) { NSLog(@"Could not find encoder %i", STREAM_VIDEO_CODEC); return; } videoStream = avformat_new_stream(oc, videoCodec); videoCodecContext = videoStream->codec; videoCodecContext->codec_type = AVMEDIA_TYPE_VIDEO; videoCodecContext->codec_id = STREAM_VIDEO_CODEC; videoCodecContext->pix_fmt = AV_PIX_FMT_YUV420P; videoCodecContext->profile = FF_PROFILE_H264_BASELINE; videoCodecContext->bit_rate = 512000; videoCodecContext->bit_rate_tolerance = 0; videoCodecContext->width = STREAM_WIDTH; videoCodecContext->height […]

如何在使用RTMPStreamPublisher发布video的同时在iPhone上存储video?

现在我正在使用RTMPStreamPublisher在RTMPStreamPublisher上发布video。 它正在上传成功,但任何人都可以告诉我如何可以在上传到服务器上的同时在iPhone上存储相同的video? 我正在使用https://github.com/slavavdovichenko/MediaLibDemos ,但没有太多的文档可用。 如果我只能存储发布的数据,那么我的工作就会成功。 这里是他们用来上传stream的方法,但我找不到在iPhone设备上存储相同video的方法: // ACTIONS -(void)doConnect { #if 0 // use ffmpeg rtmp NSString *url = [NSString stringWithFormat:@"%@/%@", hostTextField.text, streamTextField.text]; upstream = [[BroadcastStreamClient alloc] init:url resolution:RESOLUTION_LOW]; upstream.delegate = self; upstream.encoder = [MPMediaEncoder new]; [upstream start]; socket = [[RTMPClient alloc] init:host] btnConnect.title = @"Disconnect"; return; #endif #if 0 // use inside RTMPClient instance […]

RTSP / RTMPvideostream客户端iOS

我需要一个开源的解决scheme/库来将RTSP / RTMP传输到iOS应用程序。 我需要构build一个连接到媒体服务器的应用程序,并打开提供的videostream。 我相信在那里必须有图书馆,但是我还没有find一个开放源代码,编译,实际工作,并在iOS 5 +,iPhone 4 +上运行。 我没有偏好, RTMP或RTSP就足够了。 最好是工作量最less的那个。 我有RTSP在Android方面的工作,但没有任何iOS的。 这就是我今天从研究中已经知道的 – RTSP 似乎可能使用Live555 / FFMPEG MooncatVenture Group – 旧的FFMPEG,与ARMv7s不兼容(一年内没有更新/博客/提交) DFURTSPPlayer – 这是一个工作的例子。 RTMP 似乎可能使用Live555 / FFMPEG 有一些图书馆在那里进行数据通讯,不过就是这样 MidnightCoders项目 – 似乎没有video支持尚未build立,因为audio不是。 我从来没有把任何与之前相关的video搞混,所以编码,帧速率,关键帧,大块等等对我来说是非常陌生的。 现在,似乎从Live555 / FFMPEG构build一个静态二进制文件是我的问题的唯一解决scheme。 如果是这样,任何人都可以给我一个简单的快速入门指南或链接到一个博客/例如有人在那里? 我不是在寻找任何疯狂的东西,只是一个简单的 下载这个 – LINK 像这样编译 – LINK 将其放入Xcode的X文件夹中 创buildX对象 在这里阅读streamAPI – LINK 如果没有,任何人都想指向我一个工作的开源库? 哦,是的,这恰好是我的第一个iPhone应用程序,第一次在Objective-C中。 真棒第一个项目,是吗?

iOS上的RTMPstream

我必须做一个iOS应用程序,从相机播放实时videostream。 我知道iPhone只支持Live HTTPstream,但不幸的是,它延迟了大约6-10秒,这远离我的需求 – 我需要一个实时视图。 MJPEGstream也不是一个选项,因为它会产生巨大的stream量。 所以现在还有一个RTMPstream,但是iOS本身不能播放:((我听说过用于iPhone的rtmpdump,但是我无法工作,有没有人成功地在iOS上播放RTMPvideo?不胜感激!