Tag: image processing

两幅图像相乘的animation

我有两个图像: bg Image1和叠加Image2(高度大于bg image1) 现在,我需要将[Image2]放在[Image1]上,并使用混合模式乘法。 但之后,我需要animationImage2的Y位置,但保持混合模式,以获得这样的animation: https : //www.youtube.com/watch?v=D4Gqm9_Eo68 那我该怎么做到呢? 可能是我应该使用OpenGL? 如果是,那么究竟是如何?

开源的库,在iOS上构build全景照片?

有没有人知道这样的图书馆? 我想在iPhone上玩这个function,但不想从头开始编写代码。 PanoramaGL没有帮助,因为它只处理显示全景而不是build立它。 希望很快听到你的Cheere Fadi

如何从CIAreaHistogram中提取主色?

我正在寻找分析iOS上的UIImage(最像素的颜色)最主要的颜色,我偶然发现了核心图像的基于filter的API,特别是CIAreaHistogram。 似乎这个filter可能会帮助我,但我正在努力了解API。 首先它说filter的输出是一个一维图像,它是您的input框的长度和一个像素的高度。 我如何读取这些数据? 我基本上想要找出频率最高的颜色值,所以我期望数据包含每种颜色的某种频率计数,我不清楚这个一维图像是如何表示的,因为它不是真的解释我在这个一维图像内可以预期的数据。 如果它真的是一个直方图,为什么它不会返回一个像字典一样的数据结构 其次,在API中要求多个分档? 这个input应该是什么? 如果我想要一个精确的分析,inputbin参数是我的图像的色彩空间? 什么使仓值更小,我会想象它通过欧几里德距离近似的颜色接近最近的bin。 如果情况是这样,那么不会产生精确的直方图结果,为什么有人想要这样做? 从API的angular度对上述两个问题的任何意见都会对我有很大的帮助

dynamic修剪景观图像

我想根据红色视图裁剪图像。 有几点要记住。 1.图像可以滚动和缩放。 2.Red ImageView是根据Imagedynamic创build的 UIImage* whole = [UIImage imageNamed:@"9.png"]; //I uses this image CGImageRef cgImg = CGImageCreateWithImageInRect(whole.CGImage, CGRectMake(x, y, incX, incY)); UIImage* part = [UIImage imageWithCGImage:cgImg]; 我只想知道如何find价值 x,y,incX,incY 谢谢… scheme1:正常(不滚动) 预期结果(忽略顶部和底部的黑色边框) 场景2:滚动 预期结果(忽略顶部和底部的黑色边框) 场景3:缩放 对于放大一样的预期结果。 在所有情况下,我想要红色矩形内的各自的图像。 对于所有这些我使用此代码… -(void)cropClicked:(UIButton*)sender { float zoomScale = 1.0 / [mainScrollView zoomScale]; CGRect rect; rect.size.width = [redImageView bounds].size.width * zoomScale […]

在特定区域平滑图像

可能重复: 如何在OpenCV中设置ROI? 我正在尝试在图像上使用平滑/模糊滤镜,但只在源的特定path/区域中使用。 (目前使用openCV) 如何做到这一点? 现在我正在做类似的事情 cv::GaussianBlur(im, newim, cv::Size(5,5),1.5); 但我想要做的 cv::GaussianBlur(im, newim, cv::Size(5,5),1.5,MyClosedPath); 如果它更容易做,我也可以使用任何ios类。 (还没find办法呢)

animation面部图像 – 使用翘曲?

我打算做一个类似的应用程序,如在Android和iPhone下面的一个。 http://www.motionportrait.com/en/technology/ 我试过了什么? 1)我尝试使用图像变形技术来制作expression式,我已经达到了相当的准确度。 这是结果图像 。 2)我也试过opengl +纹理映射,我不能得到更好的准确性。 我在哪里卡住了? 我不喜欢脸部旋转等一些东西。 有人可以引导我通过这个应用程序背后的技术,以及如何进一步从这里? input:input到我的应用程序是一个2D正面图像。 预期输出:脸部旋转的脸部和表情。

在iOS中分析图像并find点

我正在寻找一种解决scheme来识别iOS中的图像中的点。 这个想法是用UIImagePickerselect一个图像。 然后,分析一定大小范围的点的图像,并将输出的点数作为输出。 我听说过openCV。 有没有人有这样的工作的例子。 谢谢

UIImages的图像大小,1024 x 1024?

苹果文档状态: 您应该避免创build尺寸大于1024 x 1024的UIImage对象。 除了这种图像消耗的大量内存之外,在OpenGL ES中将图像用作纹理时,或者将图像绘制到视图或图层时,可能会遇到问题。 如果您正在执行基于代码的操作(如通过将其绘制到位图支持的graphics上下文中来调整大于1024 x 1024像素的图像),则此大小限制不适用。 实际上,您可能需要以这种方式调整图像大小(或将其分成几个较小的图像),以便将其绘制到您的某个视图中。 我认为这意味着如果我们正在处理非方形图像,我们应该把它们分解成更小的图像? 有没有关于这方面的具体文件或解释,或者是否有任何经验的任何提示? 谢谢阅读。

我该如何解决这个YCrCb – > RBG转换公式?

我使用这个问题的公式: uint8_t *rgbBuffer = malloc(imageWidth * imageHeight * 3); // .. iterate over height and width // from ITU-R BT.601, rounded to integers rgbOutput[0] = (298 * (y – 16) + 409 * cr – 223) >> 8; rgbOutput[1] = (298 * (y – 16) + 100 * cb + 208 * cr + 136) […]

打开CV iOS安装

我正在安装opencv在我的系统下面的命令由开放cv http://docs.opencv.org/2.4/doc/tutorials/introduction/ios_install/ios_install.html我得到这个错误请让我知道我是什么失踪。 anil-Mac-2s-Mac-mini:opencv pws-mac-2$ python platforms/ios/build_framework.py ios Executing: ['cmake', '-GXcode', '-DCMAKE_BUILD_TYPE=Release', '-DCMAKE_TOOLCHAIN_FILE=/Users/pws-mac-2/Desktop/opencv/platforms/ios/cmake/Toolchains/Toolchain-iPhoneOS_Xcode.cmake', '-DCMAKE_INSTALL_PREFIX=install', '-DENABLE_NEON=ON', '/Users/pws-mac-2/Desktop/opencv', '-DCMAKE_C_FLAGS=-fembed-bitcode', '-DCMAKE_CXX_FLAGS=-fembed-bitcode'] in /Users/pws-mac-2/Desktop/opencv/ios/build/armv7-iPhoneOS ============================================================ ERROR: [Errno 2] No such file or directory ============================================================ Traceback (most recent call last): File "platforms/ios/build_framework.py", line 183, in <module> b.build(args.out) File "platforms/ios/build_framework.py", line 87, in build self.buildOne(t[0], t[1], mainBD, cmake_flags) File "platforms/ios/build_framework.py", line 105, […]