Tag: 核心图像

如何将Photoshop的水平调整映射到核心图像filter?

我将几个photoshop元素映射到CIFilter,我唯一遇到的问题是这个级别调整: 哪个CI滤波器(或滤波器的组合)让我在第一个例子中使用上面的16,1.73,239和39/245,或者在第二个例子中使用31,1.25,25 30/255。 我相信这是一种阴影/黑白的水平调整。 任何帮助赞赏。

从图像中删除背景&只采取图像部分保存在iOS中

这是我需要实现的: 从相机或图库中获取图像 从图像中删除背景并保存 背景应该是黑色或白色的 还需要随着背景删除阴影 结果示例: 原始图像 结果图像 这是我曾经试过的: CGFloat colorMasking[6]={222,255,222,255,222,255}; CGImageRef imageRef = CGImageCreateWithMaskingColors([IMG CGImage], colorMasking); UIImage *resultThumbImage = [UIImage imageWithCGImage:imageRef scale:ThumbImage.scale orientation:IMG.imageOrientation]; 它在白色背景的唯一的工作。 它不是更有效。 我需要达到什么我已经放在上面的图像确切的结果。 我也提到了一些参考文献: iOS如何掩盖图像的背景颜色 如何在iPhone应用程序中删除图像的背景? 将拍摄图像的背景颜色从相机更改为白色 有人可以帮助我实现这个目标吗? 任何参考或将不胜感激。 提前致谢。

核心图像和GPUImage之间的主要区别

核心图像和GPUImage框架(除了GPUImage是开源的)之间的主要区别是什么? 一目了然,他们的界面看起来非常相似…将一系列filter应用于input以创build输出。 我看到一些小的差异,例如GPUImage所具有的易于使用的LookupFilter。 我想弄清楚为什么有人会select一个照片过滤应用程序。

CIDetector和UIImagePickerController

我试图实现内置的iOS 5脸部检测API。 我正在使用UIImagePickerController的实例来允许用户拍照,然后我试图使用CIDetector来检测面部特征。 不幸的是, featuresInImage总是返回一个大小为0的数组。 代码如下: – (void)imagePickerController:(UIImagePickerController *)picker didFinishPickingMediaWithInfo:(NSDictionary *)info { UIImage* picture = [info objectForKey:UIImagePickerControllerOriginalImage]; NSNumber *orientation = [NSNumber numberWithInt: [picture imageOrientation]]; NSDictionary *imageOptions = [NSDictionary dictionaryWithObject:orientation forKey:CIDetectorImageOrientation]; CIImage *ciimage = [CIImage imageWithCGImage:[picture CGImage] options:imageOptions]; NSDictionary *detectorOptions = [NSDictionary dictionaryWithObject:CIDetectorAccuracyLow forKey:CIDetectorAccuracy]; CIDetector *detector = [CIDetector detectorOfType:CIDetectorTypeFace context:nil options:detectorOptions]; NSArray *features = [detector featuresInImage:ciimage]; […]

使用iOS 5 AV Foundation和core-image实时确定一张纸的边angular

我目前正在build立一个相机应用程序原型,应该能够识别桌子上的纸张。 关于这个的线索是它应该实时地进行识别,所以我捕捉了相机的videostream,这在iOS 5中可以很容易地用AV基础来完成。 我看着这里和这里 他们正在那里做一些基本的对象识别。 我发现在这个实时环境中使用OpenCV库不能以高性能的方式工作。 所以我需要的是一个algorithm来确定没有OpenCV的图像的边缘。 有没有人有一些示例代码片段展示了如何做到这一点,或指出我在正确的方向。 任何帮助,将不胜感激。

使用GPUImage重新创buildiOS 7 Glass效果

我试图通过将图像效果应用于MKMapView的屏幕截图来使用我的玻璃杯中的iOS 7样式玻璃效果。 Apple提供的这个UIImage类别是我用作基线的。 该方法使源图像去饱和,应用色调颜色,并使用input值重度模糊: [image applyBlurWithRadius:10.0 tintColor:[UIColor colorWithRed:229/255.0f green:246/255.0f blue:255/255.0f alpha:0.33] saturationDeltaFactor:0.66 maskImage:nil]; 这产生了我正在寻找的效果,但是时间太长了.5秒之间在iPhone 4上渲染。 我想使用优秀的GPUImage因为我的初步尝试已经快了5-10倍,但我似乎无法做到。 GPUImagePicture *stillImageSource = [[GPUImagePicture alloc] initWithImage:image]; GPUImageSaturationFilter *saturationFilter = [[GPUImageSaturationFilter alloc] init]; saturationFilter.saturation = 0.33; // 1.0 – 0.66; [stillImageSource addTarget:saturationFilter]; GPUImageMonochromeFilter *monochromeFilter = [[GPUImageMonochromeFilter alloc] init]; [monochromeFilter setColor:(GPUVector4){229/255.0f, 246/255.0f, 1.0f, 0.33f}]; [monochromeFilter setIntensity:0.2]; [saturationFilter addTarget:monochromeFilter]; GPUImageFastBlurFilter *blurFilter = […]

将RGB图像转换为1通道图像(黑/白)

如何使用ios5将RGB图像转换为1通道图像(黑/白)? input图像通常是书页的照片。 目标是通过将其复制到1通道图像来缩小复印件的尺寸。

有没有办法创build一个SKSpriteNode的CGPath匹配轮廓?

我的目标是创build一个匹配SKSpriteNode轮廓的CGPath。 这对创buildSKSpriteNodes的发光/轮廓以及物理path很有用。 有一个想法,我有,但我没有真正与CIImage很多,所以我不知道是否有一种方法来访问/修改像素级的图像。 那么也许我可以将这样的东西移植到Objective-C: http://www.sakri.net/blog/2009/05/28/detecting-edge-pixels-with-marching-squares-algorithm/ 对于使这个过程自动化的其他方法也非常开放,而不是为我为物理或轮廓/发光效果制作的每个精灵创build形状path。

CIGaussianBlur和iOS 6上的CIAffineClamp

我想在iOS 6上使用CoreImage模糊图像,而没有明显的黑色边框。 苹果文档指出,使用CIAffineClampfilter可以实现这一点,但我无法从filter获得输出图像。 这是我的尝试,但不幸的是,当我访问[clampFilter outputImage]时创build一个空的图像。 如果我只执行模糊的图像产生,但与黑暗的插入边界。 CIImage *inputImage = [[CIImage alloc] initWithCGImage:self.CGImage]; CIContext *context = [CIContext contextWithOptions:nil]; CGAffineTransform transform = CGAffineTransformIdentity; CIFilter *clampFilter = [CIFilter filterWithName:@"CIAffineClamp"]; [clampFilter setValue:inputImage forKey:kCIInputImageKey]; [clampFilter setValue:[NSValue valueWithBytes:&transform objCType:@encode(CGAffineTransform)] forKey:@"inputTransform"]; CIImage *outputImage = [clampFilter outputImage]; CIFilter *blurFilter = [CIFilter filterWithName:@"CIGaussianBlur" keysAndValues:kCIInputImageKey, outputImage, @"inputRadius", [NSNumber numberWithFloat:radius], nil]; outputImage = [blurFilter outputImage]; CGImageRef […]

无法在iOS5中从CIImage创buildUIImage

我正在使用AVFoundation框架。 在我的示例缓冲区委托我有以下代码: -(void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection{ CVPixelBufferRef pb = CMSampleBufferGetImageBuffer(sampleBuffer); CIImage *ciImage = [CIImage imageWithCVPixelBuffer:pb]; self.imageView.image = [UIImage imageWithCIImage:ciImage]; } 我能够使用CIImage运行人脸检测器等,但它不显示在UIImageView … imageView保持白色。 关于这个问题的任何想法? 我正在使用以下来设置我的会话: self.session = [[AVCaptureSession alloc] init]; self.session.sessionPreset = AVCaptureSessionPreset640x480; self.videoDevice = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo]; self.videoInput = [AVCaptureDeviceInput deviceInputWithDevice:videoDevice error:nil]; self.frameOutput = [[AVCaptureVideoDataOutput alloc] init]; self.frameOutput.videoSettings = [NSDictionary dictionaryWithObject:[NSNumber numberWithInt:kCVPixelFormatType_32BGRA] forKey:(id)kCVPixelBufferPixelFormatTypeKey];