iOS颜色在UIImage中透明

如何清除UIImage的洋红色部分并使其透明? 我已经通过无数的答案和链接,看看没有什么作品(例如, 如何使一个颜色透明的UIImage答案1删除一切,但红色,答案2显然不工作,因为为什么是CGImageCreateWithMaskingColors()返回零这种情况? )。 更新: 如果我用UIImage CGImageCreateWithMaskingColors我得到一个零值。 如果我删除了Alpha通道(我将图像表示为JPEG并将其读回)CGImageCreateWithMaskingColors返回一个带有黑色背景的图像。 Update2,代码: 返回零: const float colorMasking[6] = {222, 255, 222, 255, 222, 255}; CGImageRef imageRef = CGImageCreateWithMaskingColors(anchorWithMask.CGImage, colorMasking); NSLog(@"image ref %@", imageRef); // this is going to return a nil imgref. UIImage *image = [UIImage imageWithCGImage:imageRef]; 返回黑色背景图像(这是正常的,因为没有alpha通道): UIImage *inputImage = [UIImage imageWithData:UIImageJPEGRepresentation(anchorWithMask, 1.0)]; const float colorMasking[6] = {222, […]

编译FreeType for iPhone?

我在Windows,Linux和OSX上使用FreeType没有一个单一的问题,现在我将我的技术移植到IOS …我找不到一种方法来为它编译FreeType。 起初我试图把每个FT文件放到我的项目中,但是这显然不起作用。 然后,我试着在这个教程的后面制作一个静态库。 虽然我无法testing它是否适用于arm目标,但它不适用于模拟器目标。 当试图将构build的库链接到XCode时,它会显示“libfreetype-simulator.a,该文件是为归档而构build的,而不是被链接的体系结构(i386)”,因为命令“lipo -info libfreetype-simulator.a”告诉我该文件是为x86_64构build的。 我试着用“./configure –i386-apple-darwin” 来configuration它, 这里是日志 。 但是,结果仍然是x86_64。 如何在世界上,我可以build立freetype i386,iPhone模拟器? 我真的没有线索。

如何确定用户是否安装了iOS应用程序?

如何确定iOS设备的用户是否安装了特定的应用程序? 如果我知道应用程序的名称,我可以使用canOpenURL莫名其妙?

iPhone检测音量键按下。

我需要检测用户何时按下硬件音量键,(App Store安全方法)我已经尝试了一些没有运气的东西。 你知道如何实现这样的function吗? 目前我正在注册通知,但他们似乎并没有被调用。 这是我的代码: AudioSessionInitialize(NULL, NULL, NULL, NULL); NSNotificationCenter *notificationCenter = [NSNotificationCenter defaultCenter]; [notificationCenter addObserver:self selector:@selector(volumeChanged:) name:@"AVSystemController_SystemVolumeDidChangeNotification" object:nil]; 接收方法是: -(void)volumeChanged:(NSNotification *)notification{ NSLog(@"YAY, VOLUME WAS CHANGED");} 任何提示将非常感谢。

越狱设备上的本地通知

由于iOS框架不允许本地通知在发布之前执行代码,因此我正在寻找一种在越狱设备上实现它的方法。 是否有function在越狱设备上安排代码执行,而不需要用户进行交互? 代码应该下载更新并确定用户是否应该收到通知。 我不想使用推送通知,这需要一个外部服务器推送给用户。 更新 那么,我已经设法创build一个启动时启动并保持运行的守护进程。 但是,发布通知需要UIApplication对象。 根据文档,这个单例是由UIApplicationMain()方法创build的,对于一个普通的应用程序来说,它是由main()调用的。 由于我想通知由守护进程发布,单身人士是零。 我可以创build一个UIApplication实例吗? 或以其他方式发布通知? 我已经尝试调用UIApplicationMain() ,然后在应用程序委托中发布通知,以及杀死应用程序,但是这会显示一个黑屏; 我想它启动应用程序。 而且,当应用程序启动不可能时(当电话尚未完全启动时),它会导致守护进程崩溃。 这是代码草图 int main(){ if(launchedBySpringBoard || launchedBynotification) UIApplicationMain(…); else if(launchedByDaeamon) StartRunLoop(); } void triggerdByRunLoopEveryXhours(){ downloadData(); if(isNewData()) postNotification(); }

iOS >>拖动视图跳回原始位置>>自动布局与UIPanGestureRecognizer问题结合

我有几个UIViews,用户应该能够拖放。 我使用UIPanGestureRecognizer来pipe理d&d操作(请参阅下面的代码)。 d&d动作工作正常,但是当我开始拖动另一个UIView时,我刚刚掉落的那个就跳回原来的位置。 – (void)handlePan:(UIPanGestureRecognizer *)recognizer { CGPoint translation = [recognizer translationInView:self.view]; switch (recognizer.state) { case UIGestureRecognizerStateBegan: for (UIView* checkView in dragAndDropImageViewsArray) { if (checkView == recognizer.view) { [checkView.superview bringSubviewToFront:checkView]; //this is done to make sure the currently dragged object is the top one } } break; case UIGestureRecognizerStateChanged: recognizer.view.center = CGPointMake(recognizer.view.center.x + translation.x, recognizer.view.center.y […]

如何知道设备何时充电?

设备充电时如何使iOS应用程序检测到?

将UIImage转换为CMSampleBufferRef

我正在使用AVFoundation进行video录制。 我必须裁剪video到320×280。 我得到的CMSampleBufferRef并使用下面的代码将其转换为UIImage。 CGImageRef _cgImage = [self imageFromSampleBuffer:sampleBuffer]; UIImage *_uiImage = [UIImage imageWithCGImage:_cgImage]; CGImageRelease(_cgImage); _uiImage = [_uiImage resizedImageWithSize:CGSizeMake(320, 280)]; CMSampleBufferRef croppedBuffer = /* NEED HELP WITH THIS */ [_videoInput appendSampleBuffer:sampleBuffer]; // _videoInput is a AVAssetWriterInput imageFromSampleBuffer:方法如下所示: – (CGImageRef) imageFromSampleBuffer:(CMSampleBufferRef) sampleBuffer // Create a CGImageRef from sample buffer data { CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer); CVPixelBufferLockBaseAddress(imageBuffer,0); // […]

与AFNetworking一起发送图像和其他参数

我正在更新与AFNetworking一起使用ASIHTTPRequest的旧应用程序代码。 就我而言,我正在向API发送数据,这些数据是不同的types:Image和其他。 下面是我目前采用的代码,实现一个API客户端,请求共享实例,准备params字典并将其发送到远程API: NSMutableDictionary *params = [NSMutableDictionary dictionary]; [params setValue:@"Some value" forKey:aKey]; [[APIClient sharedInstance] postPath:@"/post" parameters:params success:^(AFHTTPRequestOperation *operation, id responseObject) { //some logic } failure:^(AFHTTPRequestOperation *operation, NSError *error) { //handle error }]; 当我想要添加一个图像到params字典会是什么情况? 有了ASIHTTPRequest ,我曾经做了以下工作: NSData *imgData = UIImagePNGRepresentation(anImage); NSString *newStr = [anImageName stringByReplacingOccurrencesOfString:@"/" withString:@"_"]; [request addData:imgData withFileName:[NSString stringWithFormat:@"%@.png",newStr] andContentType:@"image/png" forKey:anOtherKey]; 我深入到AFNetworking文档,发现他们在一个NSMutableRequest像这样附加图像: AFHTTPClient *httpClient = […]

zxing在xcode 4.5和ios 6中

你们很多人注意到了; zxing不能用最新的xcode(4.5 / ios 6) 这里是用例: 从中继结帐最新版本(因为一些修补程序已被添加) 使用ios 6.0在xcode 4.5中创build单一视图应用程序 使用README来添加依赖项,path等(只需按照步骤进行) 添加zxingcontroller调用类(重命名为毫米) 编译模拟器和设备都失败它显示31这样的错误: Undefined symbols for architecture i386: "std::string::c_str() const", referenced from 所有31个错误都是相似的,区别在于符号名称 可能有人知道如何解决这个用例? PS如果你有从以前的Xcode的应用程序,它的作品。 问题只有在Xcode 4.5中创build新的应用程序