如何将Ustreamvideoembedded到iOS中

有没有人find一种方法轻松地embedded到iPhone或iPad应用程序的Ustreamvideo? 我已经发送电子邮件到ustream的支持,但没有回应。 我真的不想运行ffmpeg或任何东西。

将CIFilter应用于CALayer

所以, CIfilter现在可以在iOS 5中使用,而且我正试图将一个应用到CALayer上, 就像在Mac上一样 。 这是我的代码: CALayer *myCircle = [CALayer layer]; myCircle.bounds = CGRectMake(0,0,30,30); myCircle.position = CGPointMake(100,100); myCircle.cornerRadius = 15; myCircle.borderColor = [UIColor whiteColor].CGColor; myCircle.borderWidth = 2; myCircle.backgroundColor = [UIColor whiteColor].CGColor; CIFilter *blurFilter = [CIFilter filterWithName:@"CIDiscBlur"]; [blurFilter setDefaults]; [blurFilter setValue:[NSNumber numberWithFloat:5.0f] forKey:@"inputRadius"]; [myCircle setFilters:[NSArray arrayWithObjects:blurFilter, nil]]; [self.view.layer addSublayer:myCircle]; 我的白色圆圈画得很好,但没有应用filter。 有什么想法吗?

关于iOSionic framework的IPv6networking

昨天,我提交我的应用程序进行审查,但我收到了来自苹果的消息。 应用程序在IPv6networking上进行审查。 请确保您的应用程序支持IPv6networking,因为需要IPv6兼容性。 有关支持IPv6networking的更多信息,请参阅支持iPv6 DNS64 / NAT64networking 。 有关networking概述,请参阅关于networking 。 我的应用程序使用ionic framework,我该如何解决这个问题。 我已经使用域来访问我的服务器,但是这个问题依然存在。

有条件地包含一个用于不同iOS SDK版本的库?

我相信这已经得到了一个简单的答案,但它是我的:( 我正在尝试构build一个在iOS 4.3和5.0版本上运行的应用程序。 我觉得在运行时用-respondsToSelector检查function的想法很好,但为了使用Twitterfunction,我需要包含Twitter库。 这导致编译器失败时4.3,我期望build设。 根据苹果的文档(在这个页面的最底部),有可能有条件地链接框架 – 但我不能为我的生活弄清楚如何设置其他链接器标志来做到这一点。 谁能告诉我这是怎么完成的?

正则expression式在ios中提取href url并丢弃锚标签的其余部分?

我想在目标C中编写一个URL提取函数。input文本可以是任何东西,可能包含也可能不包含html定位标记。 考虑一下: NSString* input1 = @"This is cool site <a href="https://abc.com/coolstuff"> Have fun exploring </a>"; NSString* input2 = @"This is cool site <a target="_blank" href="https://abc.com/coolstuff"> Must visit </a>"; NSString* input3 = @"This is cool site <a href="https://abc.com/coolstuff" target="_blank" > Try now </a>"; 我想修改string为"This is cool site https://abc.com/coolstuff 忽略锚标记之间的所有文本。 而且需要考虑其他属性,如锚点标记中的_target 我可以做类似的事情 static NSRegularExpression *regex = [NSRegularExpression […]

检测应用程序的第一次运行

我正在创build一个应用程序,在应用程序第一次启动时,我必须创build一个plist。 我稍后将使用plist来存储用户稍后input的细节。 如何检测应用程序的首次启动? 我正在尝试NSUserDefaults,但我认为我做错了什么。

SecTrustEvaluate始终使用SecPolicyCreateSSL返回kSecTrustResultRecoverableTrustFailure

我的应用程序尝试评估一个自签名证书的服务器信任证书。 这与SecPolicyCreateBasicX509正常工作,但不适用于SecPolicyCreateSSL 这是我的代码: if (challenge.protectionSpace.authenticationMethod == NSURLAuthenticationMethodServerTrust) { // create trust from protection space SecTrustRef trustRef; int trustCertificateCount = SecTrustGetCertificateCount(challenge.protectionSpace.serverTrust); NSMutableArray* trustCertificates = [[NSMutableArray alloc] initWithCapacity:trustCertificateCount]; for (int i = 0; i < trustCertificateCount; i++) { SecCertificateRef trustCertificate = SecTrustGetCertificateAtIndex(challenge.protectionSpace.serverTrust, i); [trustCertificates addObject:(id) trustCertificate]; } // set evaluation policy SecPolicyRef policyRef; // policyRef = SecPolicyCreateBasicX509(); […]

用户位置上的GeoFire查询

与Firebase及其位置库GeoFire一起工作是相当新的。 目前我在构build数据时遇到了一些问题。 目前我的数据库是这样的: users facebook:xxxxx displayName: xx firstName: xx lastName: xx location: g: xxxx l: 0: xxx 1: xxx facebook:yyyyy displayName: yy firstName: yy lastName: yy location: g: yyyy l: 0: yyy 1: yyy 我想查询我的当前用户login附近的用户。要做到这一点,我不明白我必须指定什么path。 此刻我正在做这样的事情(但那不行): 节省当前位置 let root = Firebase(url: "myapp.firebaseio.com") let usersRoot = root.childByAppendingPath("users") geoFire = GeoFire(firebaseRef: usersRoot.childByAppendingPath(root.authData.uid)) geoFire.setLocation(currentLocation, forKey: "location") { (error) […]

如何在非基于文档的应用程序上集成iCloud?

我已经阅读了苹果文档和Ray Wenderlich的教程。 看来我不得不使用UIDocument,所以我在文档中阅读它。 我发现使用基于文档的方法是有效的。 我的问题是我不想被绑定在特定于平台(iOS)的技术,因此我的应用程序有自己的模型,从头开始只从NSObjectinheritance。 这包括保存/加载。 现在,我需要将iCloud与我的旧模型一起整合。 我将如何以一种优雅/有效的方式来实现我的旧模式实施,并能够整合iCloud?

使用AVCaptureVideoDataOutput和AVCaptureAudioDataOutput时的性能问题

当我使用AVCaptureVideoDataOutput和AVCaptureAudioDataOutput录制audio+video时,我遇到了滞后问题。 有时video会阻塞几毫秒,有时audio与video不同步。 我插入了一些日志,并观察到,首先,我在captureOutputcallback中获得了很多video缓冲区,过了一段时间,我得到了audio缓冲区(有时候根本没有收到audio缓冲区,结果是没有声音)。 如果我评论处理video缓冲区的代码,我得到的audio缓冲区没有问题。 这是我正在使用的代码: -(void)initMovieOutput:(AVCaptureSession *)captureSessionLocal { AVCaptureVideoDataOutput *dataOutput = [[AVCaptureVideoDataOutput alloc] init]; self._videoOutput = dataOutput; [dataOutput release]; self._videoOutput.alwaysDiscardsLateVideoFrames = NO; self._videoOutput.videoSettings = [NSDictionary dictionaryWithObject: [NSNumber numberWithInt:kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange] forKey:(id)kCVPixelBufferPixelFormatTypeKey ]; AVCaptureAudioDataOutput *audioOutput = [[AVCaptureAudioDataOutput alloc] init]; self._audioOutput = audioOutput; [audioOutput release]; [captureSessionLocal addOutput:self._videoOutput]; [captureSessionLocal addOutput:self._audioOutput]; // Setup the queue dispatch_queue_t queue = dispatch_queue_create("MyQueue", NULL); [self._videoOutput […]