Tag: 谷歌铸

使用铬铸造可以直接从我的iPhonestream?

我想发送屏幕截图到我的iphone到相机的铬播放或video。 这是可能的或ChromeCast SDK只从网上stream?

使用GoogleCast-SDK v3从ios发件人发送JSON到receiver-app

我正在使用Google-Cast-SDK v3开发ios发件人和自定义接收器应用程序。 我似乎无法find发送包含JSON的消息到Receiver-App的适当方法。 我必须使用sendTextMessage函数吗?还是有更好的方法? 这个“新”function将能够发送一个base64编码图像? (后端没有真正的文件pipe理,这是我现在可以使用的所有东西。) 感谢您的回答

构buildiOS项目时出现Google Cast 2.6.0错误

在更新到新的Google Cast 2.6.0框架之后构buildiOS项目时,你们中的任何人都有错误? 我得到以下错误: 默认初始化一个consttypes的对象'const NSInteger'(又名'const int')。 在类GCKDevice的以下行中: /** Device capability flag for video out. */ GCK_EXPORT const NSInteger kGCKDeviceCapabilityVideoOut; /** Device capability flag for video in. */ GCK_EXPORT const NSInteger kGCKDeviceCapabilityVideoIn; /** Device capability flag for audio out. */ GCK_EXPORT const NSInteger kGCKDeviceCapabilityAudioOut; /** Device capability flag for audio in. */ GCK_EXPORT const NSInteger […]

尝试开始扫描chromecast设备时出错

使用iOS:尝试调用GCKDeviceScanner实例的startScan方法时出现此错误。 有什么build议么? 2014-03-27 11:03:17.814 XXX4Cast[3542:60b] -[__NSCFTimer gck_setTolerance:]: unrecognized selector sent to instance 0x8dc8260 2014-03-27 11:03:17.818 XXX4Cast[3542:60b] *** Terminating app due to uncaught exception 'NSInvalidArgumentException', reason: '-[__NSCFTimer gck_setTolerance:]: unrecognized selector sent to instance 0x8dc8260'

如何在iOS中设置GCKUIMiniMediaControlsViewController?

我正在升级当前Cast SDK到V3,并希望使用内置的UI组件,并删除弃用的function。 目前, GCKUIMiniMediaControlsViewController有一个白色/淡色的主题,但我想将其更改为一个较暗的主题。 但是,我找不到任何可用于更改样式的函数/属性/协议。 添加高级投射v3function到您的iOS应用程序说: Cast框架小部件支持UIKit中的Apple UIAppearance协议,用于在应用程序中更改小部件的外观,例如button的位置或边框。 使用此协议来设置Cast框架小部件的样式,以匹配现有的应用程序样式。 这让我觉得我可以改变外观,但我不太确定The Cast框架小部件在UIKit中支持Apple UIAppearance协议是什么意思:( 我也发现了一个与Cast SDK的UI组件有关的问题。 我怎样才能访问介绍性覆盖? 任何人都可以帮助我如何改变GCKUIMiniMediaControlsViewController的风格?

如何在录制video时进行stream式传输?

好的,所以我是我的应用程序,我有一个ViewController ,它处理从摄像头录制的video,然后保存到我的应用程序文件夹的文档目录中。 现在我想要做的是在录制video的同时上传当前文件的部分也写到一个服务器(我是这个新东西,但猜测http服务器)。 我这样做的原因是因为我希望添加支持,所以当video我可以stream到铬铸造。 这是可能的,因为EZCast应用程序已经执行了类似的function。 我已经制定了如何将video上传到http服务器,将http服务器中的video发送到chrome chromecast,并使用以下来源实际录制video: Chrome Cast: https : //developers.google.com/cast/ Chrome Cast: https : //github.com/googlecast/CVideosVideos-ios Http服务器: https : //github.com/robbiehanson/CocoaHTTPServer 从Idevice相机录制: https : //github.com/BradLarson/GPUImage 要投射video,我明显连接,但在允许我进入logging视图之前,我必须已经连接,所以我的代码纯粹投出一个.mp4video简单看起来像这样: -(void)startCasting { [self establishServer]; self.mediaControlChannel = [[GCKMediaControlChannel alloc] init]; self.mediaControlChannel.delegate = self; [self.deviceManager addChannel:gblvb.mediaControlChannel]; [self.mediaControlChannel requestStatus]; NSString *path = [NSString stringWithFormat:@"http://%@%@%hu%@%@", [self getIPAddress], @":" ,[httpServer listeningPort], @"/", @"Movie.mp4"]; NSString […]

无法通过谷歌在iOS应用程序中正确投射video

我正在开发一个基于AVPlayer的自定义video播放器项目。 试图整合谷歌投。 我已经做了基于谷歌的集成: https ://codelabs.developers.google.com/codelabs/cast-videos-ios/但转换为swift。 一切似乎工作正常,当投,如果video播放器打开,并且有连接的设备(或者如果我从面板连接),我形成文件的元信息,它传递给谷歌投下 – 一切工作正常。 但是,我有奇怪的行为:1)开始投射,打开video,然后是另一个video,然后是第三个video。 2)停止投射3)转到另一个video,启用投射,但不启动此video。 它开始铸造我先前打开的第一个video…. 我试图find清除caching或队列的任何方法,但没有..请帮助 class VideoVC: UIViewController, UIGestureRecognizerDelegate, GCKSessionManagerListener { var filmTitle: String! var toPass: String! var film: MovieDetails! var filmDetails: Movie! var sessionManager: GCKSessionManager? var castSession: GCKCastSession? var castMediaController: GCKUIMediaController? var checkPlayed = 0 override func viewDidLoad() { super.viewDidLoad() sessionManager = GCKCastContext.sharedInstance().sessionManager sessionManager?.add(self) castMediaController = GCKUIMediaController() […]

我怎样才能访问介绍性覆盖?

我想在我的iOS应用程序中使用appearance()方法自定义介绍性叠加层,但是我找不到在API中负责此叠加层的类。 有谁知道我怎样才能获得一个介绍性的覆盖?

如何从Chrome for iOS发送消息给自定义的Google Cast Receiver?

我正在使用CastHelloText-chrome示例,并且能够在桌面上的Chrome浏览器中正常工作,但是,当我尝试在我的iOS设备上使用Chrome时,尝试创build会议: {“code”:“channel_error”,“description”:“操作无法完成(com.google.chrome.ios.cast错误2.)”} 执行以下操作时会发生此错误: chrome.cast.requestSession(function(e) { session = e; session.sendMessage(namespace, message, onSuccess.bind(this, "Message sent: " + message), onError); }, onError); 具体来说,这似乎发生在requestSession函数调用(嵌套callback从未实际执行)。 一切到这一点似乎工作。 事实上,在我的iOS设备上,我甚至会收到popup式窗口,询问Chromecast的投放位置,一旦选中,我的Chromecast确实会显示我的自定义接收器。 但是,我仍然收到该错误消息,从来没有得到一个会话对象,所以我不能发送消息到接收器。 正如我所说,这似乎在我的桌面Chrome浏览器上正常工作,但不适用于我的iOS Chrome浏览器。 这个示例不适用于iOS设备吗? 有没有办法让它工作?

Chromecast可以在默认接收器上投射.m3u8直播videostream吗?

我已经尝试在默认接收器上投射.mp4。 它工作很好。 使用相同的设置来播放m3u8和元数据来,但video不播放。 想知道我是否可以在默认接收器上投出.m3u8。 如果是这样,我应该使用什么样的MIMEtypes,我应该设置额外的设置?