Tag: image processing

如何把YUV转换成CIImage for iOS

我正在尝试将YUV图像转换为CIIMage,最后是UIImage。 我是相当新手,试图找出一个简单的方法来做到这一点。 从我学到的东西,从iOS6 YUV可以直接用来创buildCIImage,但正如我想创build它,CIImage只有一个零值。 我的代码是这样的 – > NSLog(@"Started DrawVideoFrame\n"); CVPixelBufferRef pixelBuffer = NULL; CVReturn ret = CVPixelBufferCreateWithBytes( kCFAllocatorDefault, iWidth, iHeight, kCVPixelFormatType_420YpCbCr8BiPlanarFullRange, lpData, bytesPerRow, 0, 0, 0, &pixelBuffer ); if(ret != kCVReturnSuccess) { NSLog(@"CVPixelBufferRelease Failed"); CVPixelBufferRelease(pixelBuffer); } NSDictionary *opt = @{ (id)kCVPixelBufferPixelFormatTypeKey : @(kCVPixelFormatType_420YpCbCr8BiPlanarFullRange) }; CIImage *cimage = [CIImage imageWithCVPixelBuffer:pixelBuffer options:opt]; NSLog(@"CURRENT CIImage -> %p\n", cimage); […]

iPhone中的image processing

其实我在我的iPhone应用程序添加image processingfunction它应该做亮度,对比度,锐化,曝光…. 但我无法在互联网上find任何文章/教程。 请你帮我find任何教程或告诉我如何实现iPhone视图的应用程序。 我find了1个链接http://www.iphonedevsdk.com/forum/iphone-sdk-development/10094-adjust-image-brightness-contrast-fly.html它的工作也为亮度,但它不工作在iPad上。 所以build议我可以从我的image processing逻辑开始。 谢谢 里克jackson

使用拉普拉斯公式检测图像的OpenCV在iOS中模糊或不模糊

提前感谢您的帮助。 我有很多的研发和search,但我找不到任何检测模糊图像的解决scheme。 我已经使用这个https://github.com/BloodAxe/OpenCV-Tutorial和模糊检测使用拉普拉斯公式,但不能在图像中模糊检测 – (void)checkForBurryImage:(UIImage *)image { cv::Mat matImage = [image toMat]; cv::Mat matImageGrey; cv::cvtColor(matImage, matImageGrey, CV_BGRA2GRAY); cv::Mat dst2 =[image toMat]; cv::Mat laplacianImage; dst2.convertTo(laplacianImage, CV_8UC1); cv::Laplacian(matImageGrey, laplacianImage, CV_8U); cv::Mat laplacianImage8bit; laplacianImage.convertTo(laplacianImage8bit, CV_8UC1); //————————————————————- //————————————————————- unsigned char *pixels = laplacianImage8bit.data; //————————————————————- //————————————————————- // unsigned char *pixels = laplacianImage8bit.data; int maxLap = -16777216; for (int i = […]

更好的图像着色逻辑/algorithm

我正在开发一个iOS应用程序,用户可以通过触摸它来改变图像颜色的一部分,例如茶杯。 我正在使用Floodfillalgorithm来填充颜色,以便用户不得不点击茶杯来改变颜色。 这工作正常。 但是,最终的颜色看起来与replace颜色不同。 我有一些问题find一个更好的逻辑来转换对象的(茶杯)颜色为选定的颜色考虑其饱和度和亮度。 我正在使用以下逻辑来获取结​​果颜色。 我将颜色表示为(色调,饱和度,值) 。 touchedColor = (tchd_h, tchd_s, tchd_v); // I am not using this now pixelColor = (old_h, old_s, old_v); replacementColor = (new_h, new_s, new_v); resultColor = (new_h, new_s, old_v); pixelColor = resultColor; 绘画之前的杯子(用红色圈起来)。 所select的replace颜色。 杯子涂上替代颜色(用红色圈起来)。 看到上面的最后一张图片。 由于我仅更改色相和饱和度 ,而不是pixelColor的值 ,因此所应用的颜色与所选replace颜色看起来不相似。 图像的亮度保持不变。 如果我像这样改变色调和饱和度的值 , resultColor = (new_h, new_s, new_v); pixelColor = […]

7段显示OCR

我正在使用Tesseract(一个OCR库)构build一个iOS应用程序(拍摄照片并运行OCR),并且使用正确的数字和字符(使用常用的字体)可以很好地工作。 我遇到的问题是,如果我在7段显示器上尝试,它会给出非常糟糕的结果。 所以我的问题是:有谁知道我可以如何解决这个问题? Tesseract是否有办法识别这些字符?

图像操作filter像IOS上的白平衡,曝光,分裂音等

自从一个星期以来,我一直在尝试为我的iOS应用程序实现一些image processingfilter,如WHITE BALANCE,EXPOSURE和SPLIT TONING(如Photoshop),但是我没有得到实现它们的标准实现。 我发现shell脚本通过ImageMagick实现它们 但不知道如何将这些脚本更改为C或Objective C中的等价物。我只是使用一些转换命令来完成这些神奇的事情。 提前致谢。 请帮忙。 白平衡也可以通过改变图像的温度和色调来实现。 所以如果有人知道如何操纵这些色调和图像温度,请帮我解决这个问题。 谢谢。

如何在iOS平台上实现快速图像filter

我正在iOS应用程序中,用户可以应用一组照片filter。 每个filter基本上都是使用特定参数设置的Photoshop动作。 这一行动是: 级别调整 亮度/对比度 色相饱和度 单个和多个叠加 我在我的代码中重复了所有这些操作,使用循环遍历图像中所有像素的算术expression式。 但是,当我在iPhone 4上运行我的应用程序时,每个filter都需要大约3-4秒的时间才能应用,这是用户等待的时间。 图像大小为640 x 640像素,是我视图尺寸的2倍,因为它显示在视网膜显示屏上。 我发现我的主要问题是每次需要调整伽玛时调用pow()C函数的级别修改。 我使用浮动不当然,因为ARMv6和ARMv7双打慢。 试图启用和禁用拇指,并得到相同的结果。 在我的应用程序中最简单的filter的例子是运行相当快(2秒)。 其他filter包括更多的expression式和pow()调用,从而使它们变慢。 https://gist.github.com/1156760 我见过一些使用Accelerate Framework vDSPmatrix转换的解决scheme,以便快速修改图像。 我也看到了OpenGL ES解决scheme。 我不确定他们能否满足我的需求。 但可能这只是把我的变化集合转换成一个好的卷积matrix的问题? 任何意见将是有益的。 谢谢, 安德烈。

如何在iOS上使用OpenCV二进制化CGImage?

在我的iOS项目中,我有一个RGB的CGImage,我想二元化(转换为黑白)。 我想使用OpenCV来做到这一点,但我是OpenCV的新手。 我find了一本关于OpenCV的书,但它不适用于iPhone。 如何在iOS上使用OpenCV对这样的图像进行二进制化?

如何安装SDWebImage

我需要在我的应用程序中pipe理照片,并阅读了大量有关SDWebImage框架,这似乎是最好的方法。 不过,我发现安装难度非常大。 我不知道Ruby,从来没有使用podfile,所以通过下载最新的SDWebImagefolder&框架并将其添加到我的项目来安装它。 但是,当我尝试使用build议的导入导入到我的viewcontroller: #import <SDWebImage/UIImageView+WebCache.h> #import "UIImageView+WebCache.h" 我得到的文件没有在#importfind,那么如果我改变这个“SDWebImage / UIImageView + WebCache.h”build议我得到一个文件没有find:#import UIImageView + WebCache.h即使我可以清楚地看到当我打开我的项目中的SDWebImage文件夹! 我猜测这些错误也会导致一个未find错误,当我尝试使用sd_setImageWithUrl方法。 这里是我的项目的屏幕截图: 我希望我可以得到一些帮助,因为框架看起来有非常好的function。 任何帮助非常感谢。 谢谢

OpenCV:如何创build.vec文件以使用opencv_traincascade

正如我在我以前的post中解释的,我正在尝试生成一些cascade.xml文件来识别在我的iOS应用程序中使用的欧元硬币。 无论如何,我在理解如何生成一个.vec文件给opencv_traincascade作为input时opencv_traincascade很多困难。 这是因为我听到了许多不同的意见:有人告诉我,vector文件只能包含仅包含要识别的对象的正面图像; 别人(也可以在我的教程中阅读)说,vector文件必须包含“样本”图像,换句话说,要识别的对象已被opencv_createsamples添加到的随机背景中。 用另外的话来说: opencv_createsamples -img positives/1.png -bg negatives.txt -info 1.txt -num 210 -maxxangle 0.0 -maxyangle 0.0 -maxzangle 0.9 -bgcolor 255 -bgthresh 8 -w 48 -h 48 其中生成了12000个图像。 最后,我已经创build了.vec文件: cat *.txt > positives.txt opencv_createsamples -info positives.txt -bg negatives.txt -vec 2.vec -num 12600 -w 48 -h 48 所以,我想问问你哪个正确的图像包含在以下两个vector文件中: 而且,这是最后一次发起培训的命令吗? 这是我迄今使用过的: opencv_traincascade -data final -vec 2.vec […]