在iPhone上重新启动iOS BLE Central应用程序

我打算开发一个iOS应用程序,使用CoreBluetooth框架连续监视计步器外围设备,并统计脚步。 我知道,如果将背景执行模式设置为BLE中央,应用程序即使在后台也将继续接收BLE事件。 苹果文档指出,如果应用程序由于内存不足而终止,则系统可以跟踪特定中央pipe理器的BLE事件,如果状态保存和恢复被采用的话。 假设我有一个以中央模式运行的iOS应用程序。 当有脚步的特征变化时,应用程序被订阅接收来自计步器的通知。 我在我的应用程序中采用了以下内容。 BLE中央后台模式 BLE中央pipe理器的状态保存/恢复 我开始我的应用程序,扫描,配对和连接到计步器,应用程序开始接收脚步。 我的问题: 现在,如果iPhone重新启动,我是否会继续接收BLE事件,以便我的应用程序将在后台启动,而用户不必再次手动启动应用程序并连接到计步器? 如果应用程序由用户明确使用多任务手势终止,那么应用程序是否能够接收BLE事件,而用户不必再次手动启动应用程序并连接到计步器? 有没有办法启动我的应用程序在iOS启动?

Xcode 5“错误:不能执行'codesign'(没有这样的文件或目录)”

最近有人发表了类似的问题, 无法执行“编码”(没有这样的文件或目录) 然而,无论出于何种原因,它都得到了低票,而不是有帮助的。 所以我会试着自己发表,还有一些额外的数据,希望有些类似的东西,或者只是知道问题是什么。 我有一个在Xcode 4.x下编译好的项目,但是从安装Xcode 5 DP2(以及DP3,4和5)以及现在发布的版本开始,在尝试构build或归档到除模拟器之外的任何东西时出现此错误: CodeSign /Users/cb/Library/Developer/Xcode/DerivedData/MyApp-bdtrjmwxxokvesathmrttgwwesfq/Build/Intermediates/ArchiveIntermediates/MyApp/InstallationBuildProductsLocation/Applications/MyApp.app cd /Users/cb/Development/MyAppCore/FrontEnd/Mobile/iOS/MyApp setenv CODESIGN_ALLOCATE /Applications/Xcode.app/Contents/Developer/Toolchains/XcodeDefault.xctoolchain/usr/bin/codesign_allocate setenv PATH "/Applications/Xcode.app/Contents/Developer/Platforms/iPhoneOS.platform/Developer/usr/bin:/Applications/Xcode.app/Contents/Developer/usr/bin:$PATH:/usr/local/mysql/bin:/System/Library/Java/JavaVirtualMachines/1.6.0.jdk/Contents/Home/bin" Using code signing identity "iPhone Developer: CB (D4HZSHL6DF)" and provisioning profile "MyApp_DEV" (BB1C0589-147E-4E12-945D-8FB093B70C70) codesign –force –sign F5…B73 –resource-rules=/Users/cb/Library/Developer/Xcode/DerivedData/MyApp-bdtrjmwxxokvesathmrttgwwesfq/Build/Intermediates/ArchiveIntermediates/MyApp/InstallationBuildProductsLocation/Applications/MyApp.app/ResourceRules.plist –entitlements /Users/cb/Library/Developer/Xcode/DerivedData/MyApp-bdtrjmwxxokvesathmrttgwwesfq/Build/Intermediates/ArchiveIntermediates/MyApp/IntermediateBuildFilesPath/MyApp.build/Release-iphoneos/MyApp.build/MyApp.xcent /Users/cb/Library/Developer/Xcode/DerivedData/MyApp-bdtrjmwxxokvesathmrttgwwesfq/Build/Intermediates/ArchiveIntermediates/MyApp/InstallationBuildProductsLocation/Applications/MyApp.app 如果我打开terminal和CD /Applications/Xcode.app/Contents/Developer/Toolchains/XcodeDefault.xctoolchain/usr/bin/ 然后从那里运行命令,它执行得很好。 所以这些工具看起来是正常的,configuration文件也是如此。 这个问题似乎与Xcode本身。 应该指出,我已经完全删除Xcode,以及我的代码库,以及所有的configuration文件和证书。 我重新检查了我的代码,并重新安装了新的下载的Xcode 5,将Apple IDinput到了Xcode中,并重新创build/提取了证书和configuration文件,但仍然存在相同的问题。 我也去了项目文件本身,并删除重复PROVISIONING_PROFILE条目,我find了几个答案,无济于事。 我可以使用Xcode 5从其他2台机器上构build这个相同的项目,所以这是发生在我的盒子上的东西,或者是我的特殊安装。 但除此之外,我很难过。 有没有人看到/解决这个问题,或有任何想法在哪里寻找答案? 感谢您的任何意见!

AVAssetWriter输出(UIImage写入video)失真

我正在使用AVAssetWriter将一系列图像编码为电影文件,以下是Zoul的答案: 如何将UIImage数组导出为电影? 。 总之我的过程是: 从.png文件创buildUIImage 从UIImage获取CGImage 将CGImage转换为CVPixelBuffer(完全使用zoul的函数pixelBufferFromCGImage) 使用AVAssetWriterInputPixelBufferAdaptor和AVAssetWriter将帧写入.mov 这在大多数情况下工作正常,但有时编码的.mov文件是扭曲的(见下图)。 我想知道这种types的失真图像输出是否对任何人都熟悉,如果有任何的步骤,我可能会采取编码框架,会导致这一点。 当我使用的源图像是由Titanium调用ImageView.toBlob()生成的时候,就会出现这个问题。 除了titanium方面,关于这种types的结果可能出现的任何提示将是伟大的! 谢谢,亚历山大 从电影屏幕: http : //tinypic.com/view.php?pic=8wkqys&s=7 原始图片: http : //commons.wikimedia.org/wiki/File : Phalaenopsis_(aka).jpg

从IOS发送图像到asp.net web服务

在我的IOS应用程序中,我需要将图像发送到ASP.NET Web服务。 我想以字节forms的图像,然后将其转换回服务器端的图像forms。 现在我正在使用这些行将图像转换为IOS中的字节: NSData *imageData=UIImagePNGRepresentation([Mybutton currentBackgroundImage]); 这一行给出了734775字节的字节,这太多了,所以不能发送肥皂请求。 那么,现在我怎么才能达到这个目标呢? 当调用服务的us soap请求时,它给了我这个错误: <?xml version="1.0" encoding="utf-8"?> <soap:Envelope xmlns:soap="http://schemas.xmlsoap.org/soap/envelope/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:xsd="http://www.w3.org/2001/XMLSchema"> <soap:Body><soap:Fault> <faultcode>soap:Server</faultcode> <faultstring> System.Web.Services.Protocols.SoapException: There was an exception running the extensions specified in the config file. —&gt; System.Web.HttpException: Maximum request length exceeded. at System.Web.HttpRequest.GetEntireRawContent() at System.Web.HttpRequest.get_InputStream() at System.Web.Services.Protocols.SoapServerProtocol.Initialize() — End of inner exception stack trace — at […]

在iOS应用程序中获取一个人的Facebook公开个人资料

我正在开发一个需要Facebooklogin的ios应用程序。我已经成功地实现了login过程。但现在我无法find如何以及在哪里可以获得用户的个人资料信息,如名字,姓氏,个人资料图片等。 ..我的应用程序有权限访问名字,姓氏,configuration文件图片和电子邮件。

UIImagePickerControllerDelegate没有正确响应

我在iPhone 3Gs上使用iOS 4.2.1中的UIImagePickerController。 我以前使用过的方法 – (void)imagePickerController: didFinishPickingImage: editingInfo: 没有问题。 我有另一个应用程序在另一个应用程序中使用新的didFinishPickingMediaWithInfo API,一旦媒体被选中,该方法永远不会被select器调用。 //MyViewController.h @interface MyViewController : UIViewController < UIImagePickerControllerDelegate, UINavigationControllerDelegate> //MyViewController.m if([UIImagePickerController isSourceTypeAvailable:UIImagePickerControllerSourceTypePhotoLibrary]) { UIImagePickerController *picker = [[UIImagePickerController new] autorelease]; picker.delegate = self; picker.sourceType = UIImagePickerControllerSourceTypePhotoLibrary; picker.mediaTypes = [[NSArray alloc] initWithObjects: (NSString *) kUTTypeMovie, nil]; picker.videoQuality = UIImagePickerControllerQualityTypeHigh; picker.allowsEditing = NO; [self presentModalViewController:picker animated:TRUE]; } – […]

如何检查iOS Swift 2中的WiFi是否打开或closures?

我想检查wifi是否closures,然后显示提醒用户检查他/她的连接。 我发现这样的代码,但它会检查是否有互联网连接,而不是检查无线networking是否开启或closures: func isConnectionAvailble()->Bool{ var rechability = SCNetworkReachabilityCreateWithName(kCFAllocatorDefault, "www.apple.com").takeRetainedValue() var flags : SCNetworkReachabilityFlags = 0 if SCNetworkReachabilityGetFlags(rechability, &flags) == 0 { return false } let isReachable = (flags & UInt32(kSCNetworkFlagsReachable)) != 0 let needsConnection = (flags & UInt32(kSCNetworkFlagsConnectionRequired)) != 0 return (isReachable && !needsConnection) }

工作者线程iOS

我想在iPhone上创build一个后台线程,每10毫秒执行一些代码。 但是在我再次迷失在并发编程指南和苹果的线程编程指南之前,我想问一下这里的某个人能否帮我一把。 我想做的事: 创build一个后台工作线程 每10毫秒触发一次方法的执行。 (可能通过在该线程中使用NSTimer?) 尽可能减less主应用程序线程的负载 根据我的理解,子类化NSThread并在这个子类中写入我自己的主要方法应该可以做到。 这样,我不使用NSTimer的更新间隔,但像这样: [NSThread sleepForTimeInterval: 0.01]; 主线程和工作线程之间的排队机制也没有任何意义,因为工作线程应该反复执行相同的操作 – 直到停止。 问题是:如何configuration线程使用计时器? 我看不到如何将NSTimer附加到该工作线程运行循环?

通过UIImagepickerController在swift中获取元数据

我试图在SWIFT中的Objective-C的iOS 8 UIImage元数据中实现如下的答案 //source: http://stackanswers.com/questions/24227578/ios-8-uiimage-metadata func metaDataFromAssetLibrary(info: NSDictionary) { var assetURL = info.objectForKey(UIImagePickerControllerReferenceURL) as NSURL var assetLibrary = ALAssetsLibrary() assetLibrary.assetForURL(assetURL as NSURL, resultBlock: { (asset: ALAsset!) in var metadata: NSDictionary = asset.defaultRepresentation().metadata() as NSDictionary NSLog ("imageMetaData from AssetLibrary %@",metadata); }, failureBlock: { (error: NSError!) in NSLog("Error!") }) } 我打电话给它 func imagePickerController(picker: UIImagePickerController!, didFinishPickingMediaWithInfo info: NSDictionary!){ […]

在iOS的特定时间启动本地通知

我正在尝试创build一个计时器,触发本地通知在用户设置的时间closures。 我遇到的问题是我无法想出一个办法,可以设置本地通知在下午7:00点closures。 在研究这个问题时,几乎所有的方法都是在当地通知从当前date起的一定时间内发生的。 我正在尝试让用户select晚上7点,然后在那个时候通知。 从逻辑上讲,通过获得最后的时间(用户select的值)可以实现这一点 – 当前的时间会给你时间差。 但我不完全确定如何做到这一点。 对这个话题的任何帮助将非常感谢,谢谢。 以下是我目前用来触发本地通知的代码。 let center = UNUserNotificationCenter.current() content.title = storedMessage content.body = "Drag down to reset or disable alarm" content.categoryIdentifier = "alarm" content.userInfo = ["customData": "fizzbuzz"] content.sound = UNNotificationSound.init(named: "1.mp3") content.badge = 1 let trigger = UNTimeIntervalNotificationTrigger(timeInterval: timeAmount, repeats: false) let request = UNNotificationRequest(identifier: "requestAlarm", content: content, trigger: […]