Tag: image processing

如何从图像中获取单个实体?

我正在使用这个图像。 我想从这个图像只有人的一部分。 我不想要这个图像的背景。 这个怎么做? 任何逻辑,链接或最好和简单的方法? 这里是我想要的链接,但我希望在目标c

OpenCV错误:在iOS上断言失败

我试图find一个图像中最大的斑点,并根据链接的plist文件进行分类。 我正在使用最新版本的OpenCV for iOS,并且已经查看了几个相关的问题,但目前为止还没有涉及到iOS。 我得到这个错误: OpenCV错误:断言失败(types== src2.type()&& src1.cols == src2.cols &&(type == CV_32F || type == CV_8U))in batchDistance,file / Users / admin / Desktop / OpenCV / modules / core / src / stat.cpp,第4000行 libc ++ abi.dylib:以typescv :: Exception的未捕获exception终止:/Users/admin/Desktop/OpenCV/modules/core/src/stat.cpp:4000:error:(-215)type == src2。在函数batchDistance中键入()&& src1.cols == src2.cols &&(type == CV_32F || type == CV_8U) 当我运行这个: – (IBAction)CaptureButton:(id)sender { […]

如何消除iPhone中的图像红眼?

我想删除红眼效果forms的照片,但没有得到任何样本任何人可以帮助我与工作演示代码或代码片段? 谢谢。

仅在UIImageView的非透明像素上有效检测触摸

如何有效地检测UIImageView的不透明像素? 考虑下面的图像,用UIImageView显示。 目标是使手势识别器只有在图像的非透明(在这种情况下是黑色)区域发生触摸时才作出响应。 思路 重写hitTest:withEvent:或pointInside:withEvent:虽然这种方法可能非常低效,因为这些方法在触摸事件中被调用了很多次。 检查单个像素是否透明可能会产生意想不到的结果,因为手指大于一个像素。 检查命中点周围像素的圆形区域,或尝试find朝向边缘的透明path可能效果更好。 奖金 区分图像的外部和内部透明像素是很好的。 在这个例子中,零内的透明像素也应该被认为是有效的。 如果图像有变换会发生什么? image processing可以硬件加速吗?

iOS Tesseract OCR图像准备

我想实现一个OCR应用程序,可以识别来自照片的文字。 我成功地编译和集成了iOS中的Tesseract引擎,我成功地在拍摄清晰的文档(或者从屏幕上拍摄这个文本的照片)时获得了合理的检测,但是对于其他文本,例如路标,商店标志,颜色背景,检测失败。 问题是需要什么样的image processing准备才能获得更好的识别。 例如,我期望我们需要将图像转换为灰度/黑白以及固定对比度等。 这怎么可以在iOS中完成,是否有一个包?

在ios中将图像转换为卡通

在ios中是否有任何filter可以将图像转换为卡通形象,就像上面的图片一样?

使用OpenCV人脸检测在iOS中裁剪图像

我使用下面的代码从我的脸部检测代码中的图像裁剪一张脸。 但我没有得到适当的脸部图像,我得到了保存图像的一部分,而不是脸部。 我的代码有什么问题? _faceCascade.detectMultiScale(mat, faces, 1.1, 2, kHaarOptions, cv::Size(40, 40)); 在displayfaces函数里面使用下面的代码进行裁剪: CGRect cropRect = CGRectMake(faces[i].x, faces[i].y, faces[i].width, faces[i].width); CGImageRef cropped_img = CGImageCreateWithImageInRect(self.storeImage.CGImage, cropRect); UIImage *img = [UIImage imageWithCGImage:cropped_img]; UIImageWriteToSavedPhotosAlbum( img, self, nil,nil); 得到正确的faces[i]坐标faces[i] 。 但问题只在于裁剪和设定ROI。 有人能帮我解决吗? 我也试着用下面的代码,再次获得相同的图像。 (即,我没有得到实际的脸部图像) cv :: Mat image_roi; cv::Rect roi(faces[i].x, faces[i].y, faces[i].width, faces[i].height); cv::Mat(testMat, roi).copyTo(image_roi); UIImage *img = [CaptureViewController imageWithCVMat:image_roi ]; […]

如何在图像上执行快速像素化滤镜?

我的像素化image processingalgorithm有点问题。 我从一开始就把图像加载到unsigned char*types的数组中,然后在需要的时候修改这些数据并更新图像。 这个更新需要很长时间。 这是我如何做到的: CGDataProviderRef dataProvider = CGProviderCrateWithData(…..); CGImageRef cgImage = CGImageCreate(….); [imageView setImage:[UIImage imageWithCGImage:cgImage]]]; 一切正常,但处理一个大的图像是非常缓慢的。 我试着在后台线程上运行这个,但是没有帮助。 所以基本上这要花太长的时间。 有没有人有任何想法如何改善?

iOS GLSL。 有没有办法使用GLSL着色器创build图像直方图?

在StackOverflow的其他地方,有人问到一个关于深度缓冲区直方图的问题 – 用GLSL创build深度缓冲区直方图纹理 。 我正在写一个iOSimage processing应用程序,并对这个问题感兴趣,但不清楚答案。 那么,是否可以通过GLSL使用GPU创build图像直方图?

从AVCaptureSessionDataOutput与AVCaptureSessionPresetPhoto iOS iOS CVImageBuffer扭曲

在很高的层面上,我创build了一个应用程序,让用户指向他或她的iPhone摄像头,并看到视觉效果处理过的video帧。 此外,用户可以点击一个button,将当前预览的冻结帧作为保存在其iPhone库中的高分辨率照片。 要做到这一点,应用程序遵循这个过程: 1)创build一个AVCaptureSession captureSession = [[AVCaptureSession alloc] init]; [captureSession setSessionPreset:AVCaptureSessionPreset640x480]; 2)使用背面照相机连接AVCaptureDeviceInput。 videoInput = [[[AVCaptureDeviceInput alloc] initWithDevice:backFacingCamera error:&error] autorelease]; [captureSession addInput:videoInput]; 3)将AVCaptureStillImageOutput连接到会话,以便能够以照片分辨率捕捉静帧。 stillOutput = [[AVCaptureStillImageOutput alloc] init]; [stillOutput setOutputSettings:[NSDictionary dictionaryWithObject:[NSNumber numberWithInt:kCVPixelFormatType_32BGRA] forKey:(id)kCVPixelBufferPixelFormatTypeKey]]; [captureSession addOutput:stillOutput]; 4)将AVCaptureVideoDataOutput连接到会话,以便能够以较低的分辨率捕获单独的video帧(CVImageBuffers) videoOutput = [[AVCaptureVideoDataOutput alloc] init]; [videoOutput setVideoSettings:[NSDictionary dictionaryWithObject:[NSNumber numberWithInt:kCVPixelFormatType_32BGRA] forKey:(id)kCVPixelBufferPixelFormatTypeKey]]; [videoOutput setSampleBufferDelegate:self queue:dispatch_get_main_queue()]; [captureSession addOutput:videoOutput]; 5)当video帧被捕获时,委托的方法被称为每个新的帧作为CVImageBuffer: – (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer […]