Tag: 增强现实

开始打开CV图像识别

我试图做一个应用程序的图像识别打开简历,我想实现这样的事情,但我不知道我该怎么做可以任何一个给我任何帮助,我应该从哪里开始我已经下载了Opencv的iOS从这里开始 , 我有一个图像硬拷贝作为一个例子,我想扫描通过相机和我已经在项目中导入的图像(标记)现在,当我通过相机扫描图像,然后它应该覆盖图像上的标记,当我点击/select它应该显示该标记的信息的标记。 这是我的形象: 这只是一个例子(方形,圆形和三angular形作为标记) 所以,现在,当图像被扫描,然后标记将作为一个覆盖,点击标记我应该得到的名称(如果覆盖图像上的圈名为“空气”被挖掘,它应该显示我“空气”上的警报或者如果广场命名为“老虎”被挖掘,它应该说“老虎”)我的问题是,图像是种相同的模式,但结果是不同的每一个部分,所以我不知道我应该如何处理在这.. 请任何人可以通过暗示任何想法帮助我,或者如果有人做了这样的事情,请告诉我应该如何实现它。 我必须从头开始任何帮助,请。 这可以使用Open CV来实现,或者我必须使用任何其他的SDK,比如vuforia或者layar。

Iphone 6相机校准OpenCV

我正在开发一个使用OpenCV的iOS增强现实应用程序。 我在创build相机投影matrix时遇到了问题,以允许OpenGL叠加层直接映射到标记顶部。 我觉得这是由于我的iPhone 6相机没有正确地校准到应用程序。 我知道有OpenCV代码校准摄像头等使用国际象棋板,但我找不到一种方法来校准我的embedded式iPhone摄像头。 有没有办法? 或者是否有iPhone 6的估算值? 其中包括:x和y的焦距,x和y的主点以及畸变系数matrix。 任何帮助将不胜感激。 编辑: 推导值如下(使用iPhone 6,摄像头分辨率1280×720): fx=1229 cx=360 fy=1153 cy=640 此代码提供了当前运行iOS 9.1的设备的焦距和主要点的准确估计。 AVCaptureDeviceFormat *format = deviceInput.device.activeFormat; CMFormatDescriptionRef fDesc = format.formatDescription; CGSize dim = CMVideoFormatDescriptionGetPresentationDimensions(fDesc, true, true); float cx = float(dim.width) / 2.0; float cy = float(dim.height) / 2.0; float HFOV = format.videoFieldOfView; float VFOV = ((HFOV)/cx)*cy; float fx […]

Google Cardboard – 是否有Cardboard VR套件的iPhone / iOS启动器项目?

我正在寻找谷歌纸板套件,一个廉价的VR设置 ,使用Android设备来玩3D虚拟现实游戏。 我看到他们有一个Android演示项目,但是Cardboard项目中是否有iOS或Objective-C端口? 如果没有,是否有任何其他的iOS项目可以修改为与硬纸板套件一起使用?

真正的TImeimage processing(OCR)

我正在计划开发像Word Lens这样的应用程序。 任何人都可以build议我可以使用一个好的图书馆吗? 或任何一个解释Word Lens App背后的技术? 是卷轴时间图像匹配还是OCR? 我知道一些image processing库像OpenCV,tesseract …任何帮助,非常感谢…

如何用CMMotionManagerreplaceUIAccelerometer?

我是iOS开发新手。 我遵循Ray Wenderlich的教程来创build一个基于位置的AR应用程序。 但是,本教程使用了一个尚未更新的AR Toolkit 。 它使用的UIAccelerometer已经被弃用,因为iOS 5,所以当我尝试在我的iPhone上运行它(iOS 7.0.4),Xcode说,有3个警告,并且所有这些都是由UIAccelerometer造成的。 它导致的结果是所有的标记都在一个在另一个之上停留在屏幕的中心,并且倾斜根本不起作用。 根据我的研究,我想我需要做的是使用CMMotionManager,而不是UIAccelerometer,但正如我之前所说,我对iOS开发是全新的,不知道如何replace它。 这里是源代码 。 我添加了一些小function,以便您可以手动添加不在Google数据库中的位置,但我不认为这是导致问题的function。 感谢您提前帮忙!

摄像头覆盖层随着方位和高程而变化

伙计们, 我正在试图获得一个实用程序,如下图所示。 基本上,相机显示窗口覆盖设备屏幕的一部分,并且通过曲线或直线连接的点列表作为覆盖层呈现在相机视图上。 我知道这可以使用石英绘制,但这不足我的问题的一半。 真正的问题是覆盖层应该随着方位和高程的变化而呈现不同的点。 例如: 如果方位必须改变+5度和仰angular+2度,则PT1将位于摄像机视图的右边缘旁边, PT2也将向右移动,并且PT3将可见。 另一个改变方位+10度的运动将使PT1不可见, PT2在右边, PT3在PT4中间, PT4在摄像机视图的左边缘。 我的照片后的问题: 是否有可能有一个比相机视图的尺寸大得多的视图(如下所示),并使用一些方法(我需要研究这些方法)来移动方位/高程变化时的视图? build议性能明智吗? 石英是去这里的路吗? 我还需要什么(当然其他AVFoundation的相机和corelocation /议案)? 由于我的应用程序只有iOS 7,我可以使用iOS 7独有的任何新的方法/ API。 除了raywendelrich关于增强现实游戏的教程,是否有任何教程可以帮助我完成这项工作?

我怎样才能得到iOS设备CMDeviceMotion的标题

我正在开发一个使用陀螺仪的AR应用程序。 我使用苹果代码示例pARk。 它使用旋转matrix来计算坐标的位置,它确实做得很好,但是现在我试图实现一个“雷达”,我需要在设备标题的函数中旋转它。 我正在使用CLLocationManager标题,但它不正确。 问题是,如何使用CMAttitude获取设备的标题以准确反映屏幕上显示的内容? 我是新的旋转matrix和那种东西。 这是用于计算AR坐标的代码的一部分。 用态度更新cameraTransform: CMDeviceMotion *d = motionManager.deviceMotion; if (d != nil) { CMRotationMatrix r = d.attitude.rotationMatrix; transformFromCMRotationMatrix(cameraTransform, &r); [self setNeedsDisplay]; } 然后在drawRect代码中: mat4f_t projectionCameraTransform; multiplyMatrixAndMatrix(projectionCameraTransform, projectionTransform, cameraTransform); int i = 0; for (PlaceOfInterest *poi in [placesOfInterest objectEnumerator]) { vec4f_t v; multiplyMatrixAndVector(v, projectionCameraTransform, placesOfInterestCoordinates[i]); float x = (v[0] / v[3] + […]

iOS – 计算距离,方位angular,高程和相对位置(增强现实)

我开始构build增强现实应用程序,您可以在增强现实相机视图的屏幕上放置图像,并将其保留在地球上的这个位置,以便其他人使用相机视图可以在增强现实中看到它现实相机视图。 为此,我知道我需要计算一些距离因子以及方位angular和仰angular。 所以,我已经想出了如何将对象的graphics发送到服务器并将其恢复,但是如何将其放回原来的位置,相对于地球。 我知道我需要计算它的: 高度 坐标 方位 海拔 距离 但是,我将如何计算这些数据,并将它们汇总在一起。 我希望你明白我的意思。 为了使您的理解更加完善,让我给你一个简短的应用程序演示: 一个人在他的房子里,他决定在他的墙上放一幅画。 他打开默认为增强现实屏幕的应用程序,他按下加号button,并添加他的照片库中的图像。 在幕后,它将位置和位置数据保存到服务器上,具有应用程序和增强现实屏幕的用户来到服务器并find保存在附近的图像,然后下载图像并将其放置在另一个人在墙上移动时可以用手机看到墙壁。 我应该采取什么方法来实现这一目标? 任何大纲,链接,资源,教程,想法,经验等谢谢! 这是一个很难记的问题,我希望你能理解。 如果不是,请告诉我,我会reword。 罗汉

ARKit将物体隐藏在墙壁后面

我怎样才能使用ARKit跟踪的水平和垂直平面来隐藏墙壁/背后的物体? 目前,当你离开一个房间和/或在他们应该在后面的物体前面时,可以通过墙壁看到3D添加的物体。 那么是否有可能使用这些数据?ARKit使我能够提供更自然的AR体验,而不会出现穿墙的物体?

从相机中dynamic检测不同形状(圆形,方形和矩形)?

我想创build一个应用程序来检测对象的形状(圆形,正方形和矩形只有几何形状),不应该使用标记较less或基于边缘的方式来检测扩增中的形状。 我已经使用了以下的东西,像通过metaio sdk中已经存在的教程的过程 1)Metaio: http ://dev.metaio.com/sdk/tutorials/hello-world/ 2)OpenCV: http : //docs.opencv.org/doc/tutorials/imgproc/imgtrans/canny_detector/canny_detector.html#canny-detector 这些是我试图实现的东西。 几何形状:1)实时圈可以是任何圆形物体 – > 2)实时广场可以是任何方形物体 – > 3)实时矩形可以是任何矩形对象 – > 我怎样才能实现这种增强的情况。 提前致谢