RTSPvideostream为iOS

我想在iPhone屏幕上显示videostreamRTSP 。 可以抛出项目的源代码或细节如何实现它。 find2个项目,但他们没有编译: https://github.com/mooncatventures-group/RTSPPlay https://github.com/mooncatventures-group/RtspFrames-test 来自网站VLC源代码也不编译,没有文件。 告诉我,是否有可能将stream录制到video文件中? 它是如何实现的? 提前致谢。

如何在iPhone OpenGL ES粒子系统中绘制1000多个粒子(具有独特的旋转,缩放和alpha)而不会减慢游戏速度?

我正在开发一个使用OpenGL ES 1.1的iPhone游戏。 在这个游戏中,我会有一些血液粒子在被射击时从angular色中散发出来,所以在任何时候屏幕上都会有1000多个血液粒子。 问题是,当我有超过500个粒子渲染,游戏的帧速率下降非常大。 目前,每个粒子使用glDrawArrays(..)渲染自己,我知道这是造成速度减慢的原因。 所有的粒子共享相同的纹理地图集。 那么减less绘制多个粒子的速度最好的select是什么? 以下是我find的选项: 将所有的血液粒子组合在一起,并使用一个单一的glDrawArrays(..)调用渲染 – 如果我使用这种方法,有没有办法让每个粒子有自己的旋转和alpha? 或者当这个方法被使用时,他们都必须有相同的旋转? 如果我无法渲染具有独特旋转的粒子,那么我不能使用这个选项。 在OpenGL ES 2.0中使用点精灵。 我没有使用OpenGL ES 2.0,但我需要满足一个截止date,我已经在App Store上发布了我的游戏。 要使用OpenGL ES需要进行初步的研究,不幸的是我没有时间去执行。 在稍后的版本中,我将升级到OpenGL ES 2.0,但首先我只想使用1.1。 这里是每个粒子渲染本身。 这是我最初的粒子渲染方法,它使得游戏在渲染了500多个粒子之后经历了帧速率的显着下降。 // original method: each particle renders itself. // slow when many particles must be rendered [[AtlasLibrary sharedAtlasLibrary] ensureContainingTextureAtlasIsBoundInOpenGLES:self.containingAtlasKey]; glPushMatrix(); // translate glTranslatef(translation.x, translation.y, translation.z); // rotate glRotatef(rotation.x, […]

在iOS中,如何使用https在服务器上使用自签名证书连接到服务器?

我正在开发的iOS 5,真的不想使用un-ARCed代码,所以我select自己实现而不是使用AFNetworking。 这也可能是一个大问题,所以我把它分成两个小部分。 1)在iOS 5中使用https连接到服务器。我使用从“iOS 5 Programming Pushing the Limits”中提取的代码。 因为我正在为iOS 5开发,所以我不使用我的项目中的弃用方法。 “RNSecTrustEvaluateAsX509”是一种将证书重新评估为简单的X.509证书而不是SSL握手的一部分的方法。 – (void)connection:(NSURLConnection *)connection willSendRequestForAuthenticationChallenge:(NSURLAuthenticationChallenge *)challenge { NSURLProtectionSpace *protSpace = challenge.protectionSpace; SecTrustRef trust = protSpace.serverTrust; SecTrustResultType result = kSecTrustResultFatalTrustFailure; OSStatus status = SecTrustEvaluate(trust, &result); if (status == errSecSuccess && result == kSecTrustResultRecoverableTrustFailure) { SecCertificateRef cert = SecTrustGetCertificateAtIndex(trust, 0); CFStringRef subject = SecCertificateCopySubjectSummary(cert); NSLog(@"Trying […]

如何使用AVFoundation为您的video添加不同的图像和不同的CMTime

我正在使用AVFoundation在我的电影中加水印。 这与在互联网和苹果公司正在进行的代码运行良好。 但是我不想在完整的时间显示水印,我想在同一部电影中显示不同的水印。 我有一个AVAsset: NSString *path = [[NSBundle mainBundle] pathForResource:@"test" ofType:@"MOV"]; NSURL *url = [[NSURL alloc] initFileURLWithPath: path]; avasset_camera = [AVAsset assetWithURL:url]; 一个AVMutableComposition: AVMutableComposition *mix = [AVMutableComposition composition]; 将UIImage转换为CALayer,并将其添加到另一个图层以与animationTool合并: UIImage *myImage = [UIImage imageNamed:@"watermark.png"]; CALayer *aLayer = [CALayer layer]; aLayer.contents = (id)myImage.CGImage; aLayer.frame = CGRectMake(0, 0, 568, 320); aLayer.opacity = 1.0; CGSize videoSize = [avasset_camera […]

IOS Swift使用SOAP调用Web服务

我已经浏览了如何在互联网上通过SOAP窗体调用Web服务的答案,并find了一些答案。 我试图实现我在这些答案中find的代码,但不断得到一个HTTP 400状态代码。 我想弄清楚我做错了什么。 我已经将问题简化为视图控制器中的几行代码,如下所示,当按下UI上的button时调用代码。 我想要调用的Web服务可以在http://www.cgsapi.com/CGSWebService.asmxfind。 (要查看WSDL文件,请在URL的末尾附加?wsdl。) import UIKit class ViewController: UIViewController { var is_SoapMessage: String = "<soapenv:Envelope xmlns:soapenv=\"http://schemas.xmlsoap.org/soap/envelope/\" xmlns:cgs=\"http://www.cgsapi.com/\"><soapenv:Header/><soapenv:Body><cgs:GetSystemStatus/></soapenv:Body></soapenv:Envelope>" override func viewDidLoad() { super.viewDidLoad() // Do any additional setup after loading the view, typically from a nib. } override func didReceiveMemoryWarning() { super.didReceiveMemoryWarning() // Dispose of any resources that can be recreated. } @IBAction […]

在SceneKit中的COLLADA转换

我们尝试在Xcode中查看模型并使用SceneKit来渲染模型。 如果我们将COLLADA(.dae)文件添加到Xcode,它会使用scntool将模型scntool为c3d格式(在Internet上find这个格式)。 但是我们希望在运行时加载模型(我们将它们从服务器下载到iOS设备)。 我们如何将.dae转换成这种格式,而不是从Mac OS? 我们运行Ubuntu的服务器,我们可以转换模型,并发送它已经转换到iOS设备。 非常感谢!

parsing – 使用关系与指针?

我使用Parse作为我的后端。 在设置对象之间的正确关系时遇到问题。 我基本上有一个名为Post的类,每个post属于一个用户(PFUser),并且在获取post时,我希望用户信息与post一起获取。 @interface Post : PFObject<PFSubclassing> @property (nonatomic, strong) NSDate *time; @property (nonatomic, strong) NSString *title; @property (nonatomic, strong) NSString *body; @property (nonatomic, strong, readonly) PFRelation *user; // User in backed is defined as a relationship to _user @end // Saving the post [post.user addObject:[PFUser currentUser]; [post saveInBackground]; 这工作正常,并将该post关联到该用户,但是当我稍后尝试获取post时,似乎并不像我可以从PFRelation获取_user的实例。 什么是正确的方法来处理这个? 试图改变PFUser PFUser,但会崩溃,因为它试图调用保存PFUser对象

Android(或iOS) – 图像上传队列

我们已经为Android(和iOS)编写了一个应用程序,并允许用户将照片上传到我们的REST服务器。 我们遇到的问题是,有时用户在可怕的蜂窝信号和没有WIFI的地方。 所以,我想知道是否有一个预先构build的解决scheme,或推荐的path推迟这些上传,直到后来只有平淡的networking选项可用。 现在在Android上我正在使用一个AsyncTask上传捕获的图像的stream表示。 图像的最大尺寸被裁剪为1280,另一方面是方面缩放,所以图像不是很大。 用户可能没有信号长达2个小时我想象,所以它不需要尝试上传每一分钟。 此外,可能有多个上传,所以我想,需要某种队列。 我不是正面的iOS应用程序正在利用,但我可以找出是否有帮助。

自定义UITabBar图标iOS

我正在开发一个选项卡式应用程序,我想集成自定义的UITabbar背景和图标。 我已经插入了一个自定义的背景,但我有一个图标的问题。 这是图标应该看起来如何: 但添加故事板中的每个视图的图标后,我得到这样的灰色图标: 有没有人有一个想法,为什么这样的图标显示? 非常感谢你!

访问歌曲上的BPM字段(MPMediaItemPropertyBeatsPerMinute不起作用)

我正在构build一个有媒体播放器的应用程序(我正在使用iOS SDK 4.2)。 当播放给定的歌曲时,我可以访问几乎所有的属性,但是我无法访问MPMediaItemPropertyBeatsPerMinute。 它每次都返回null。 苹果文件指出: 媒体项目的每分钟音乐节拍数,对应于iTunes中“获取信息”对话框的“信息”选项卡中的“BPM”字段。 Value是表示NSUInteger数据types的NSNumber对象。 在iOS 4.0及更高版本中可用。 在MPMediaItem.h中声明。 请注意,我正在使用的歌曲在BPM字段中包含BPM数据。 我知道这不是默认设置。 我一直在尝试的代码是: MPMusicPlayerController *musicPlayer = [MPMusicPlayerController applicationMusicPlayer]; // … MPMediaItem *currentItem = [musicPlayer nowPlayingItem]; if (currentItem != NULL) { NSLog([NSString stringWithFormat:@"%@", [currentItem valueForProperty:MPMediaItemPropertyBeatsPerMinute]]); } 上面的代码为每首歌曲吐出“(null)”。 由于我能够以这种方式访问​​当前歌曲的所有其他属性,我相信这可能是SDK中的一个错误。 所以,我的问题有两点。 我是否做错了,或者这是SDK中的一个已知的错误? 我还可以怎样去检索歌曲上的BPM数据?