Tag: opencv

Xcode 7不用c ++框架构build项目

我不能用一个新版本的opencv 3.0.0框架来构build项目(版本2没有这个问题)。 Xcode 7不会将c ++源代码编译为c ++。 这是最简单的设置,不是build立: 从这里下载3.0.0框架http://netix.dl.sourceforge.net/project/opencvlibrary/opencv-ios/3.0.0/opencv2.framework.zip 用Swift语言创build最简单的ios项目。 将框架拖放到项目中。 创buildObjective-C++源代码和头文件并将其添加到项目中。 创build桥接头。 这是设置: build立。 这是编译器所说的: opencv2.framework/Headers/core/base.hpp:49:4: error: base.hpp header must be compiled as C++ 这是为什么? 我有.mm文件,它应该编译为Objective-C ++源代码。

使用OpenCV检测上半身部分

我正在开发一个与OpenCV集成的iOS项目。 我想要的输出是这样的: 我如何检测上身部分(即:脖子下面)? 我到目前为止做到的身体检测是这样的.. 如果有人曾经这样做过。 请帮帮我.. -(void)processImage:(Mat&)image { std::vector<cv::Rect> bodies; Mat grayscaleFrame; cvtColor(image, grayscaleFrame, CV_BGR2GRAY); equalizeHist(grayscaleFrame, grayscaleFrame); upperBodyCascade.detectMultiScale(grayscaleFrame, image, bodies, HaarOptions,cv::Size(30,30)); for (size_t i = 0; i < bodies.size(); i++) { rectangle(image, bodies[i], Scalar(255, 0, 255)); } }

绿屏/色度键iOS

我正在尝试在iOS上实时进行绿屏减法。 我已经包含openCV在我的项目,我可以从相机使用本教程获取原始数据: http : //www.benjaminloulier.com/articles/ios4-and-direct-access-to-the-camera然后,我转换从CGImageRef到IplImage。 我坚持的是,使用openCV,我怎么做这个绿屏减法? 还是有一个更简单的图像库,我可以使用iOS来实现这一目标? 谢谢

OpenCV 2.4.3+与iOS的libstdc + +?

我想包括一个最新版本的OpenCV到一个现有的iOS项目,并有链接器错误,因为我的XCode项目设置为使用libstdc ++而不是libc ++ / C ++ 11支持。 我见过其他几个通过启用libc ++修复错误的人。 例子: 将Xcode升级到4.5.2和将OpenCV升级到2.4.3之后的链接器错误 如何解决与OpenCV的iOS链接错误 但是,我需要使用libstdc ++,因为我有其他第三方库已经与旧的stdlib编译(不能更改)。 有没有一种方法来编译OpenCV 2.4.3 +没有-stdlib = libc ++? 是否有特殊的标志传递给CMake? 或OpenCV源代码的ios文件夹中的build_framework.py脚本? 或者,有没有人有二进制版本可用? 似乎所有可从OpenCV下载的文件都假定为libc ++ / C ++ 11。

为什么cv :: resize太慢?

我正在做一个实时video源的边缘检测: – (void)processImage:(Mat&)image; { cv::resize(image, smallImage, cv::Size(288,352), 0, 0, CV_INTER_CUBIC); edgeDetection(smallImage); cv::resize(smallImage, image, image.size(), 0, 0, CV_INTER_LINEAR); } edgeDetection做了一些相当繁重的工作,并且以1280×720的video帧大小运行在相当低的帧率上。 增加resize调用大大降低了帧率,与我所期望的相反。 这只是因为resize操作缓慢,或者因为我做错了什么? smallImage在头文件中声明: @interface CameraController : UIViewController <CvVideoCameraDelegate> { Mat smallImage; } 没有初始化它,它工作正常。

使用拉普拉斯公式检测图像的OpenCV在iOS中模糊或不模糊

提前感谢您的帮助。 我有很多的研发和search,但我找不到任何检测模糊图像的解决scheme。 我已经使用这个https://github.com/BloodAxe/OpenCV-Tutorial和模糊检测使用拉普拉斯公式,但不能在图像中模糊检测 – (void)checkForBurryImage:(UIImage *)image { cv::Mat matImage = [image toMat]; cv::Mat matImageGrey; cv::cvtColor(matImage, matImageGrey, CV_BGRA2GRAY); cv::Mat dst2 =[image toMat]; cv::Mat laplacianImage; dst2.convertTo(laplacianImage, CV_8UC1); cv::Laplacian(matImageGrey, laplacianImage, CV_8U); cv::Mat laplacianImage8bit; laplacianImage.convertTo(laplacianImage8bit, CV_8UC1); //————————————————————- //————————————————————- unsigned char *pixels = laplacianImage8bit.data; //————————————————————- //————————————————————- // unsigned char *pixels = laplacianImage8bit.data; int maxLap = -16777216; for (int i = […]

OpenCV安装在xcode中

我在我的项目中使用bellow链接来安装opencv,但我们如何在terminal生成命令我不知道谁能帮助我? http://aptogo.co.uk/2011/09/opencv-framework-for-ios/

从图像中删除背景&只采取图像部分保存在iOS中

这是我需要实现的: 从相机或图库中获取图像 从图像中删除背景并保存 背景应该是黑色或白色的 还需要随着背景删除阴影 结果示例: 原始图像 结果图像 这是我曾经试过的: CGFloat colorMasking[6]={222,255,222,255,222,255}; CGImageRef imageRef = CGImageCreateWithMaskingColors([IMG CGImage], colorMasking); UIImage *resultThumbImage = [UIImage imageWithCGImage:imageRef scale:ThumbImage.scale orientation:IMG.imageOrientation]; 它在白色背景的唯一的工作。 它不是更有效。 我需要达到什么我已经放在上面的图像确切的结果。 我也提到了一些参考文献: iOS如何掩盖图像的背景颜色 如何在iPhone应用程序中删除图像的背景? 将拍摄图像的背景颜色从相机更改为白色 有人可以帮助我实现这个目标吗? 任何参考或将不胜感激。 提前致谢。

如何使用ENABLE_BITCODE编译OpenCV iOS

当我尝试使用XCode 7 + iOS SDK 9编译我的XCode项目与OpenCV 2.4 iOS时,XCode抱怨说 ld:'opencv2.framework / opencv2(alloc.o)'不包含位码。 您必须使用位代码重新启动(Xcode设置ENABLE_BITCODE),从供应商获取更新的库,或者禁用此目标的位代码。 为架构arm64 铿锵声:错误:链接器命令失败,退出代码1(使用-v来查看调用) 并拒绝链接。 谷歌search后, 事实certificate是因为苹果在App Store中添加了一个名为Bitcode的新function,用于应用程序优化。 虽然OpenCV iOS二进制文件没有被更新为包含位码,但它不能通过链接阶段。 有些引用指出了一个临时的解决scheme来禁用ENABLE_BITCODE所以链接可以在没有Bitcode的情况下完成。 这将阻止应用程序被编译为Apple Watch,因为Bitcode对于Watch应用程序是必需的。 因此,我的问题是,是否有一些(最简单的)方法来编译启用Bitcode的iOS OpenCV? (更好的编译框架下载链接)

检测具有圆angular的卡的边缘

嗨,目前我正在一个OCR阅读应用程序,我已经成功地能够通过使用AVFoundation框架捕获卡图像。 对于下一步,我需要找出卡的边缘,以便我可以从主捕获的图像裁剪卡图像,稍后我可以将其发送到OCR引擎进行处理。 现在的主要问题是find卡的边缘,我正在使用下面的代码(取自另一个开源项目),它使用OpenCV为此目的。它是工作正常,如果卡是纯粹的矩形卡或纸。 但是,当我使用具有圆angular的卡(例如驾驶执照)时,它未能被发现。 另外我没有太多的OpenCV的专业知识,任何人都可以帮助我解决这个问题? – (void)detectEdges { cv::Mat original = [MAOpenCV cvMatFromUIImage:_adjustedImage]; CGSize targetSize = _sourceImageView.contentSize; cv::resize(original, original, cvSize(targetSize.width, targetSize.height)); cv::vector<cv::vector<cv::Point>>squares; cv::vector<cv::Point> largest_square; find_squares(original, squares); find_largest_square(squares, largest_square); if (largest_square.size() == 4) { // Manually sorting points, needs major improvement. Sorry. NSMutableArray *points = [NSMutableArray array]; NSMutableDictionary *sortedPoints = [NSMutableDictionary dictionary]; for (int i = […]