Xcode 6 App Store提交失败,“您的帐户已经拥有有效的iOS分发证书”

我正在使用最新的XCode(6.1),我需要尽快提交应用程序,但我似乎无法绕过“您的帐户已经有一个有效的iOS分发证书”错误。 我有客户的configuration文件,我有他的发行证书(这是有效的)和他的私钥(我已经检查使用钥匙链,这是肯定的)。 包ID也是正确的。 我已经删除了我的configuration文件和证书,现在已经多次重新安装客户端。 什么可能导致这个问题? 在这个问题上,我看到了很多关于这个问题的话题,所以我之前为创build另一个克隆而道歉,但是我真的不知道如何解决这个问题。 编辑 :顺便说一下,我正在运行一个全新的优胜美地安装

警告:iPad:Icon-72.png:图标尺寸(0 x 0)

我得到了这个问题:“警告:iPad:Icon-72.png:图标尺寸(0 x 0)不符合尺寸要求。图标文件必须为72×72像素,格式为.png(-19014)用于存档仅iPad的应用程序。 已经检查,我的图标是72×72像素。 还检查了info.plist文件,关键的CFBundleIconFiles已经在那里。 在这之前没有问题提交的应用程序。 被应用程序审查拒绝后,我想重新提交(我的Xcode项目没有更改),但出现错误。 是否因为我升级到Mac OSX Lion 10.7.3? (我只是在重新提交应用程序之前更新到Mac OSX Lion 10.7.3)。 不知道为什么警告说“图标尺寸(0 x 0)”。 请帮帮我。 谢谢。

用iPhone使用最新的FBConnect SDK发布到用户的Facebook墙上

我很难find任何FBConnect iPhone SDK的良好文档。 我有SDK设置为从用户获得权限,但做一个简单的职位是逃避我。 我只能findPHP web SDK的文档。 任何人都可以指向我的iPhone SDK的一些文档或让我知道如何使用最新的图FBConnect SDK发布到用户墙? 谢谢!

将video+生成的audio写入AVAssetWriterInput,audio口吃

我从iOS上的Unity应用程序生成video。 我使用iVidCap,它使用AVFoundation来做到这一点。 那边一切正常。 本质上,video是通过使用纹理渲染目标并将帧传递给Obj-C插件来渲染的。 现在我需要添加audio到video。 audio将是特定时间发生的声音效果,也可能是一些背景音效。 正在使用的文件实际上是Unity应用程序的内部资源。 我可能会写这些到电话存储,然后生成一个AVComposition,但我的计划是要避免这种情况,并在浮点格式缓冲区(从audio剪辑获取audio以浮点格式)复合audio。 我可能会稍后在飞行audio效果。 几个小时后,我设法录制audio,并播放video…但它结结巴巴。 目前,我只是在每个video帧的持续时间内生成一个方波,并将其写入AVAssetWriterInput。 之后,我将生成我实际需要的audio。 如果我生成一个大样本,我不会得到口吃。 如果我把它写成块(我更喜欢分配一个巨大的数组),那么audio块似乎相互剪辑: 我似乎无法弄清楚这是为什么。 我很确定我正在为audio缓冲区获取正确的时间戳,但也许我正在做这整个部分不正确。 或者我需要一些标志来让video同步到audio? 我不能看到这是问题,因为我可以在将audio数据提取到wav之后在波形编辑器中看到问题。 编写audio的相关代码: – (id)init { self = [super init]; if (self) { // [snip] rateDenominator = 44100; rateMultiplier = rateDenominator / frameRate; sample_position_ = 0; audio_fmt_desc_ = nil; int nchannels = 2; AudioStreamBasicDescription audioFormat; bzero(&audioFormat, sizeof(audioFormat)); audioFormat.mSampleRate = […]

打开cv iosvideo​​处理

我正在尝试使用openCv框架来做这里的iosvideo​​处理教程。 我已经成功地将ios openCv框架加载到我的项目中, 但似乎在我的框架和教程中提供的框架之间不匹配,我希望有人能帮助我。 OpenCv使用cv::Mattypes来表示图像。 当使用AVfoundation委托来处理来自相机的图像时 – 我将需要将所有的CMSampleBufferRef转换为该types。 看来,本教程中介绍的openCV框架提供了一个名为using的库 #import <opencv2/highgui/cap_ios.h> 用新的委托命令: 任何人都可以指出我在哪里可以find这个框架或CMSampleBufferRef和cv::Mat之间的快速转换 编辑 在opencv框架中有很多细分(至less对ios来说)。 我已经通过各种“官方”网站下载它,并使用THEIR指令使用fink和brew等工具。 我甚至比较了安装到/ usr / local / include / opencv /中的头文件。 每次都不一样 下载openCV项目时 – 在同一个项目中有各种cmake文件和冲突的自述文件。 我认为我成功地为IOS构build了一个好的版本,通过这个链接内置了框架的avcapturefunction(通过这个头文件<opencv2/highgui/cap_ios.h> ),然后使用ios目录中的python脚本构build库- 使用命令python opencv/ios/build_framework.py ios 。 我会尝试更新

模糊屏幕与iOS 7的快照API

我相信NDA已经下降了,所以我可以问这个问题。 我有一个UIView子类: BlurView *blurredView = ((BlurView *)[self.view snapshotViewAfterScreenUpdates:NO]); blurredView.frame = self.view.frame; [self.view addSubview:blurredView]; 到目前为止,它在捕获屏幕方面的工作,但现在我想模糊这个观点。 我究竟如何去做呢? 从我读过的东西中,我需要捕获视图的当前内容(上下文?!),并将其转换为CIImage(否),然后将CIGaussianBlur应用于视图并将其拖回视图。 我到底怎么做? PS视图不是animation,所以它应该是性能明智的。 编辑:这是我迄今为止。 问题是我无法捕捉快照到UIImage,我得到一个黑屏。 但是,如果我直接添加视图作为子视图,我可以看到快照在那里。 // Snapshot UIView *view = [self.view snapshotViewAfterScreenUpdates:NO]; // Convert to UIImage UIGraphicsBeginImageContextWithOptions(view.bounds.size, view.opaque, 0.0); [view.layer renderInContext:UIGraphicsGetCurrentContext()]; UIImage *img = UIGraphicsGetImageFromCurrentImageContext(); UIGraphicsEndImageContext(); // Apply the UIImage to a UIImageView BlurView *blurredView = [[BlurView alloc] initWithFrame:CGRectMake(0, […]

如何将Blender混合(或obj)文件转换为Qualcom Vuforia .h文件

我正在使用Qualcomm Vuforia开发具有增强现实function的iOS应用程序,并且我很难理解如何从Blender(或其他软件)创build3D模型。 所有的例子都使用带有顶点坐标的.h文件,即一个茶壶。 我无法find对我有用的文档。 有没有工具将.blend或.obj文件转换为.h(OpenGL ES)? 谢谢

iPhone:我如何build立我自己的TabBar?

因为我有一个正常的iPhone TabBar不能提供的标签栏的一些要求,我需要build立自己的。 build立我自己的tabbar的最好方法是什么,特别是如何以正确的方式在我的主视图控制器中添加/删除(显示/隐藏)视图,同时考虑子视图的内存和最佳实践?

用最小的文件大小在iPhone上录制audio

我想用iPhone录制audio,然后上传到服务器。 我可以录制audio,但是我的问题是应该使用哪种格式来录制audio,以便录音机生成文件最小的文件。

如何将核心数据导出为CSV

我希望使用CHCSVParser将我的Core数据导出为CSV。 我知道如何从实体中获得所有的价值,但我不知道如何写入CSV。 有谁可以教我如何写入CSV与CHCSVParser ? // Test listing all Infos from the store NSFetchRequest *fetchRequest = [[NSFetchRequest alloc] init]; NSEntityDescription *entity = [NSEntityDescription entityForName:@"NoteLog" inManagedObjectContext:context]; [fetchRequest setEntity:entity]; NSArray *fetchedObjects = [context executeFetchRequest:fetchRequest error:&error]; for (NoteLog *noteInfo in fetchedObjects) { NSLog(@"Name: %@", noteInfo.city ); NSLog(@"Name: %@", noteInfo.country); NSLog(@"Name: %@", noteInfo.datetime); NSLog(@"Name: %@", noteInfo.notelatitude); NSLog(@"Name: %@", noteInfo.notelongtitude); NSLog(@"Name: […]