Tag: Arkit导航

ARKit和CoreLocation:第一部分

使用线性代数(和Trig)导航 示范代码 ARKit和CoreLocation:第一部分 ARKit和CoreLocation:第二部分 ARKit和CoreLocation:第三部分 背景 自从我写了一篇新的博客文章以来已经有一段时间了,所以希望能弥补这一点。 这篇文章和下一篇文章将是我对ARKit和CoreLocation进行实验的两部分系列! 第一部分将介绍ARKit的基础知识,MapKit的指导以及矩阵转换的基础知识。 第二部分将处理计算两个位置之间的方位,以及如何获取位置数据并将其转换为ARKit场景中的位置。 介绍 提到“增强现实”,最先引起人们注意的是PokemonGO。 如果您像大多数人一样,可能曾经玩过一两次(或痴迷过)。PokemonGO证明了在设置方面,没有什么能比我们的世界更好。 就像PokemonGO一样令人敬畏,这只是对增强现实体验的深度和潜力的一瞥。 苹果文档 : 增强现实 (AR)描述了用户体验,这些体验将2D或3D元素添加到设备相机的实时视图中,从而使这些元素看起来像是居住在现实世界中。 ARKit结合了设备运动跟踪,相机场景捕获,高级场景处理和显示便利性,以简化构建AR体验的任务。 借助iOS 11,Apple已将ARKit的功能释放给iOS开发社区。 我们距离iOS 11尚有几周的上线时间,但我们已经看到的情况似乎可能会重新定义移动用户体验的可能性。 首先,一些基本原理 所以,这是魔术吧? 我不想成为这样说的人,但是不,这只是数学。 因此,如果这不是魔术,那么他们如何实现呢? 视觉惯性里程表! (快说十遍。) 定义 视觉惯性里程表(VIO) :ARKit会分析手机摄像头和运动数据,以便跟踪其周围的环境。 计算机视觉记录了环境中的显着特征,并且无论iPhone的移动如何,都能够保持其在现实世界中位置的意识。 苹果公司非常热衷于围绕会话组织代码。 会议是一个 封装包含在应用程序活动的定义时间段内的逻辑和数据的方法。 使用URLSession时,这是您的应用程序发送网络请求并回传数据时的逻辑和数据。 ARSession :在ARKit中, ARSession协调创建增强现实体验所需的逻辑和数据。 这包括相机和运动数据以及跟踪世界时所需的计算。 ARFrame : ARFrame包含视频帧数据和位置跟踪数据,这些数据会在currentFrame属性中传递给ARSession。 ARKit将该图像数据与运动跟踪数据结合起来,以计算iPhone的位置。 ARAncho r : ARAnchor是现实世界中保持的位置,无论摄像机的运动或位置(理论上)如何。 它固定在一个特定的位置,并且大部分将保留在那里。 AR配置 ARWorldTrackingConfiguration :是用于跟踪设备方向,位置并检测特征点(如相机记录的表面)的配置。 ARConfigurations将您和手机所处的物理世界与手机根据摄像头和运动数据生成的虚拟坐标空间进行连接。 worldAlignment: […]