Tag: 增强现实

ARKit —简单的动手体验

大家好,我又是安东尼奥 👋上一次我们进行互动时,我写了一篇关于增强现实(AR)的简单技术介绍,以及它令人惊讶的惊人程度🌟,因此,如果您还没有读过,请仔细阅读。 我保证它不会像它的标题那样令人无聊,使您相信。 😅 全面披露,这篇博客不是要教您ARKit的基础知识,那里已经有很多很好的教程(这是一个非常酷的教程!),我不想只写其中一个。 我想带您经历一个实际的初步动手体验过程,并使用一种很有前途的,崭露头角的技术,这种技术可以带来实际有用的AR体验,而不仅仅是一些松散耦合的技术展示。功能和头。 (这句话满口是形容词,但这是重点!)因此,事不宜迟,让我们开始吧。 ARKit 正如我在上一篇文章中提到的那样,我决定试乘ARKit,然后让我告诉您,这是什么旅程! 对于那些以前从未听说过ARKit的人来说,它是苹果公司开发iOS增强现实应用程序的官方工具包。 它利用了他们最新的A11芯片和深度感知相机,具有以下功能: 会话之间的持久性AR体验 ,可以在以后恢复; AR会话也可以由多个用户同时共享 ,每个用户都有自己的iOS设备。 现实环境中的平面和表面检测 ; 真实世界中图像和物体的特征检测 ; 真实环境中的图像和物体检测与跟踪 ; 物理引擎,用于AR对象相互之间及其环境交互。 而且,我们只是在摸索,每批功能的数量,它们的可靠性以及它们相互补充的方式都超出了我们的预期。 😁 因此,为了体验此技术奇迹并获得启发,我下载了iOS 12和Xcode 10 (ARKit 2的最低要求),下载了所有Apple演示,几个开源项目,并深深地欣赏了它们的优点。 我立刻被迷住了。 使用SwiftShot播放或观看以下视频。 这不是no头,太神奇了! 首先,我们要做的就是将CoreLocation导入到我们的项目中,接下来我们需要设置一个LocationManager,它将不断向我们提供用户的GPS位置。 就我们的应用而言,由于AR已经耗尽了电池的电量,因此我决定采用可以走动的精度,但可以尝试其他精度。 全面披露:地球的曲率不会以任何可见的方式影响我们的应用程序,因为我们将处理最大2 Km的“小”距离,但要考虑潜在的问题并选择使用ARCL作为缓解措施,我们已经在提出更严格的要求。 😉 AR POI场景 与我们的第一个AR场景一样,使用ARCL框架添加我们最近购买的POI也不需要很多。 我们将从他们的书中摘取一页,并创建一个扩展了LocationNode (又扩展了SCNNode )的自定义节点:我们自己的LocationTextAnnotationNode 。 LocationTextAnnotationNode由一个文本子节点组成,用于显示POI的名称及其与当前位置的相对距离。 还有一个图像节点,我们可以在视觉上在AR场景中定位POI。 如您所见,大多数代码本身都是关于如何以美学方式呈现每个节点的,几乎没有考虑到如何将其全部放入AR场景中……🤔感谢ARCL的努力! 创建后,每个LocationTextAnnotationNode都将添加到AR场景。 很简单,对吧? POI路由 既然已经将POI正确放置在我们的AR场景中,我们希望能够与它们交互,从而使我们能够选择目的地并询问前往该目的地的路线。 设置点击手势识别器并不太麻烦,我们只需要对AR场景中被点击的位置进行命中测试,检索所有受影响的场景节点,然后选择第一个符合条件的匹配项即可。 选择了POI之后,我们要询问从当前位置到其GPS坐标的方向,我们将其作为连续的路线段捆绑进行寻址,最后将这些方向转换为可添加到AR场景的场景节点。 就是这样,我们拥有AR应用程序所需的一切: ✅知道用户当前的GPS位置; […]

将DuckHunt与ARKit结合使用? -第2课:增强应用程序的体系结构

故事作者: nomtek的 iOS开发人员 Wojciech Trzasko 您可能还记得,最近我们从事了一个将经典NES游戏与我们的现实结合起来的小项目……哦,您不记得了吗? 没问题,这是一个偷偷摸摸的小故事,可以刷新您的记忆: 你还不记得吗 请查阅上一课,其中定义了Entity-Component-System模式和VIPER体系结构的基础。 目前,我们已经掌握了使用ECS模式为实时应用程序设计架构的知识,这与ARKit的经验非常吻合。 我们还了解了称为VIPER的广泛使用的iOS应用程序体系结构的基础。 因此,现在我们需要弄清楚如何连接这两个不同的世界。 为什么这两个有很大不同? 一方面,我们将ECS与ARKit相结合,该技术处理图像数据并基于结果提供实时信息。 在另一端,我们将使用以UIKit和VIPER架构为代表的基于事件的经典基础架构。 现在,该是最难的部分了。 如果有AR经验,我们将处理实时信息,而不是基于事件的基础结构。 现在,如果我们看一下经典的VIPER层,则演示者和交互者不太合适。 你是对的! 我们将尝试用ECS设计模式替换这些层。 为此,我们需要将用户的交互和对update方法的调用传递给ECS,但是由于ARKit和SceneKit的性质,此任务有些棘手。 要构建基于SceneKit的体验,您需要使用实现SCNSceneRenderer协议的对象。 对于AR场景,Apple提供了默认的AR渲染器实现,称为ARSCNView ,该渲染器将游戏逻辑和增强现实回调(例如updateAtTime , didSimulatePhysicsAtTime或didAddNodeForAnchor )返回给其委托。 因此,对于我们的ECS实施至关重要的所有回调,都将由严格连接到视图层的对象返回。 这是一个很大的障碍,如果我们不想实现自己的渲染器,则需要弄清楚如何处理它。 使它起作用的最简单方法是,从其大部分职责中裁剪视图图层并使其尽可能简单。 在我们的DuckHunt演示中,我们仅使用视图控制器对象来收集用户输入和所有逻辑回调,然后将它们传递给两个附加层: Scene和Gameplay 。 他们俩甚至都不知道视图的存在。 所有通信都通过这些层共享的接口进行。 那么,这两个新层的职责是什么? Scene是从SCNScene继承的类。 它加载并保存放置在世界上的3D对象图。 而且,它允许通过将动态对象公开来操纵它们。 游戏性是发生所有魔术的地方。 在这里,我们将介绍我们的ECS实施。 通常,它引用了我们的场景,并处理了世界上对象之间的所有交互。 让我们来看看DuckHunt游戏中的hunt模块。 HuntScene从scene.scn文件加载将在玩家周围显示的世界。 然后通过其公共界面共享鸭子生成点列表和一个其他节点。 我们允许HuntGameplay使用此节点为新生成的鸭子实体添加几何。 然后,我们将管理和确定系统顺序的逻辑从ECS模式转移到称为EntityManager的单独类。 因此,在他的最终形式中, HuntGameplay通过从EntityManager调用update来从View获取更新回调并将其传递给实体,然后根据需要生成新的Duck。 最后,它检查获胜条件。 如果满足,则要求线框移至下一个场景。 因此,如果您更深入地研究新层,您会发现与经典VIPER方法有些相似之处。 就像VIPER的视图等待演示者提供要显示的内容一样, 场景也等待游戏过程来确定世界上对象的新位置。 主要区别在于我们允许我们的游戏玩法向场景添加新的几何体。 […]

Unity ARKit示例:第2部分

创建一个Hello World应用程序。 本文是从Unity ARKit开始的系列文章的一部分, 示例:第1部分 。 你好,世界 我们首先构建使用Unity-ARKit-Plugin的绝对最小应用程序: 我们首先创建一个支持Unity-ARKit-Plugin的场景: 在Unity中 ,我们创建一个新文件夹, 资产>场景,并在其中创建一个新场景,例如Hello World。 我们修改主相机 ; 将“ 变换”>“位置”设置为(0、0、0),并将“ 摄像机”>“清除标志”设置为仅深度 我们将Unity AR Video脚本添加到主摄像机 。 然后我们将Unity AR Video> Clear Material设置为Assets> UnityARKitPlugin> Plugins> iOS> UnityARKit> Materials> YUVMaterial 我们将Unity AR Camera Near Far脚本添加到主摄像机 我们创建一个新的空GameObject ,例如ARCameraManager,并向其中添加Unity AR Camera Manager脚本。 我们将Unity AR Camera Manager> Camera设置为主摄像机 我们将预制资产Assets> UnityARKitPlugin> ARKitRemote> ARKitRemote添加到场景中 现在,我们为应用程序添加了一些特定的东西,例如,我们添加了具有以下内容的多维数据集 : 转换:(0,0,2) […]

探索ARKit:ARSCNPlaneGeometry

如果您听说过,Apple最近发布了ARKit的主要更新,称其为ARKit 1.5。 虽然很多注意力都集中在新的垂直平面检测功能上,而ARKit最初的版本已经明显忽略了这些功能,但关于其他新的平面检测功能的说法却很少。 令人兴奋的是失去了一些非常强大的新功能。 有争议的是,苹果公司的ARKit版本中最酷的功能是很少被提及的功能。 隐藏起来,我们为ARPlaneAnchor添加了一些新属性。 花一点时间看看这些。 在检测曲面的存在和位置/尺寸之前,在ARKit 1.5中,我们现在获取了轮廓和地面的位置。 ARPlaneGeometry — 3D网格,描述了在世界跟踪的AR会话中检测到的平面的形状。 此类以详细的3D网格形式提供检测到的平面的估计总体形状,该3D网格适用于各种渲染技术或导出3D资产。 与ARPlaneAnchor center和extent属性不同,后者仅估计检测到的平面的矩形区域,而平面锚的geometry属性则提供了该平面覆盖的2D区域的更详细的估计。 例如,如果ARKit检测到圆形桌面,则生成的ARPlaneGeometry对象将大致匹配表的一般形状。 随着会话的继续进行,ARKit提供了更新的平面锚,其关联的几何形状完善了平面的估计形状。您可以使用此模型更精确地放置应仅出现在检测到的平面上的3D内容-例如,确保虚拟对象不会掉到桌子的边缘。 您还可以使用此模型创建遮挡几何图形,该遮挡几何图形会将其他虚拟内容隐藏在相机图像中检测到的表面后面。平面几何图形的形状始终为凸形。 (也就是说,平面几何图形的边界多边形是一个最小的凸包,其中包含ARKit识别或估计的所有点都是该平面的一部分。) vertices-平面网格中每个点的顶点位置的缓冲区。 此缓冲区中的每个float3值代表坐标系统中顶点在网格中的位置,坐标系的原点由所属平面锚点的变换矩阵定义。vertexCount属性提供缓冲区中元素的数量。 triangleIndices缓冲区,描述覆盖平面整个表面的网格。 将此网格用于涉及填充形状的目的,例如渲染曲面的实体3D表示。 如果相反,您只需要知道形状的轮廓,请参阅boundaryVertices属性。 boundaryVertices —沿平面边界的每个点的顶点位置的数组。 该数组中的每个float3值均代表坐标系统中顶点沿估计平面边界多边形的位置,该坐标系的原点由所属平面锚点的transform矩阵定义。此数组定义平面的边界多边形。 将其用于仅需要该多边形的定义的目的,例如绘制平面的估计形状的轮廓或测试点是否在边界区域内。 如果相反,您需要填充的形状(例如,渲染曲面的实体3D表示),请参见vertices属性。 textureCoordinates —平面网格中每个点的纹理坐标值的缓冲区。 此缓冲区中的每个float2值代表vertices缓冲区中相应索引处顶点的UV纹理坐标。 ARSCNPlaneGeometry —平面的2D形状的SceneKit表示形式,用于AR会话中的平面检测结果。 此类是SCNGeometry的子类, SCNGeometry包装ARPlaneGeometry类提供的网格数据。 您可以使用ARSCNPlaneGeometry在ARSCNPlaneGeometry中快速轻松地可视化ARKit提供的平面形状估计。随着您的AR会话继续运行,ARKit会提供对检测到的平面2D形状的精确估计。 使用updateFromPlaneGeometry:方法将这些改进合并到平面的SceneKit表示中。 这是一台基本的3D扫描仪,尽管其准确度比使用激光传感器的3D扫描仪要低。 无论如何,这是巨大的。 多年来,人们一直在谈论这样一个时刻,即人们可以根据自己的环境快速便捷地创建3D扫描,以及可能带来的可能性。 好了,我们到了(尽管有一些警告) 首先,无论有没有平面几何的最新更新,我们都已经准备就绪。 据报道,苹果公司一直在寻求在其下一代iPhone型号中增加背面3D相机,以增强增强现实,因此,这只是我们今年夏天可能会看到的内容的预览。 这也不是最顺畅的用户体验,要完全检测到对象将非常耗时。 但是,看起来今年夏天有很多期待! 如果我不得不猜测,Apple可能会针对所有类型的表面/形状推出可用的表面检测。 希望2018年ARKit中所有遮挡难题也能结束! 导入UIKit 导入SceneKit 导入ARKit 类ViewController:UIViewController { @IBOutlet var […]

使用ARKit在iOS上的增强现实圣诞树

在圣诞节之前和iOS 11发布之后,Tamedia Digital的一些朋友认为,如果我们可以将iOS的新增强现实功能用于非常特殊的应用程序,那就太酷了。 我们称它为圣诞节那天。 想法是让我们的大堂全天打开iPhone,重点放在一棵圣诞树上,上面放着圣诞球,不断显示拍摄照片和视频的人的自拍照。 为了知道在哪里展示球,我们尝试了一些方法。 首先,我们使用了Yolo,这是一种经过预先训练的模型,能够检测我们的树(以及许多其他对象)并在图像中提供其位置。 这没有按我们预期的那样工作:这非常耗费资源,而且我们的树太近了以至于我们无法检测到它。 我们最终要做的是在树下的地面上放置一个QR代码,并使用Vision API对其进行检测,并猜测树在世界上的哪个位置,以便我们可以将圣诞球放在树上。 我们也可以检测到一个矩形,但是QR码被证明是非常快速和可靠的。 我们也可以使用2D对象检测,但是当时iOS尚没有。 一旦检测到QR码,我们就可以使用Vision API返回的VNRectangleObservation,它为我们提供了有关投影矩形区域的信息。 有了它,我们可以在场景中调用hitTest并猜测QR Code在我们的增强现实世界中的什么位置。 首先让我们开始介绍如何在这样的环境下建立我们的AR世界。 没有特别的顺序。 应用程序启动时会发生什么: 在应用程序启动时,我们确实创建了QR Code请求对象。 调用SCNSceneRendererDelegate的渲染器方法时,将使用此对象检测QR Code。 每秒发生60次:您可能希望每n帧进行一次检测,以保持应用程序流畅。 对于该应用程序,我们使用SceneKit在增强现实世界中显示对象。 成功检测到后,我们将计算QR码在AR世界中的位置,并渲染圣诞球。 let qrCodeRequest = VNDetectBarcodesRequest(completionHandler: {(request, error) 完成处理程序…您应在此处处理错误。 并注意以下力量: 结果为request.results! { 如果让条形码=结果为? VNBarcodeObservation { DispatchQueue.main.async { self.textManager.showMessage(“已检测到QR码”) } self.serialQueue.async { //让我们计算qrcode的位置并显示圣诞球 self.handleObservation(用于:条形码) } } } 不要忘了初始化ARKit并设置您的ARSCNView及其委托(ARSCNViewDelegate)。 您可能想要做的一件事就是更改您希望视图重绘其内容的速率。 让standardConfiguration:ARWorldTrackingConfiguration = { […]

你好ARKit

在进入增强现实的奇妙世界之前,让我们确保已具备所有先决条件。 Xcode 9(测试版或更高版本) :ARKit在Xcode 9(测试版)或更高版本上可用。 因此,请确保下载最新版本的Xcode 9。 物理设备 :您将需要一个物理设备来测试您的ARKit应用程序。 建议测试设备至少包含A9处理器,这意味着iPhone 6S或更高版本或最新的iPad。 iOS 11(测试版或更高版本) :由于ARKit是iOS 11 SDK的一部分,因此要求您的设备运行iOS 11 beta或更高版本。 根据您的Internet连接,下载和安装所有内容可能需要10分钟到45天的时间。 我在开玩笑,最多30天🙂 现在,您已经下载并安装了所有必备软件,并准备好尝试使用iOS版ARKit构建增强现实应用程序。 在本章的最后,您将了解实现ARKit应用程序的基本概念。 启动Xcode 9并创建一个新项目。 您会注意到Xcode 9带有一个专门为ARKit应用程序设计的新项目模板, 如图1所示。 图1:Xcode 9中的增强现实项目模板 选择“ 增强现实应用程序 ”模板后,按“ 下一步 ”按钮。 这将带您到项目选项屏幕,该屏幕允许您配置项目的不同属性。 对我们而言,最重要的选择是“ Content Technology ”,它允许开发人员使用SpriteKit,SceneKit或Metal框架创建ARKit应用程序。 图2:对多种内容技术的支持 确保选择SceneKit,因为本书中的大多数示例都使用SceneKit作为内容技术。 接下来,为您的项目指定一个位置,最后按“创建”按钮使ARKit项目生效。 您只有片刻的时间见证了增强现实的魔力。 运行该应用程序,并确保您的物理iPhone已插入并已连接。 图3显示了运行中的ARKit默认应用程序。 您的花园可能没有我的花园绿🙂 图3:运行中的ARKit默认应用 休斯顿! 我们有ARKit! 本章是我的《 iOS开发者的ARKit》一书的一部分。 立即获取该书,并开始构建出色的增强现实应用程序。 祝贺您运行了第一个ARKit应用程序。 在下一节中,我们将了解制作默认ARKit项目所涉及的代码。 了解项目: […]

ARKit简介—视觉集成

该系列的这一部分将关于将Vision(Apple的计算机视觉和机器学习框架)与ARKit一起使用。 影像追踪 世界地图 物体扫描 视觉整合 金属和反射性表面(即将推出) 借助ARKit,您可以将Vision与AR实时集成,以产生无缝有效的用户体验。 什么是视觉? 视觉本身就是一个计算机视觉框架,该框架使用ML模型根据预先训练的数据对手机的摄像头进行分类。 例如,您可以添加一堆不同电气组件(如电动机或电阻器)的照片,给它们MLImageClassifier标签,然后训练MLImageClassifier模型来识别那些组件。 我今天希望教给您的是如何将Vision与AR结合在一起,以便您可以使用ARKit实时提供有关Vision发现的发现和结果的反馈。 例如,假设我想制作一个应用程序来标识我的吐司面包的来源( 例如WWDC )。 我将能够制作经过训练的ML模型,以识别不同的吐司,并通过Vision进行设置,然后在匹配后使用AR在Toast顶部放置一个Toast图标: 我们项目中需要做的第一件事是创建MLImageClassifier 。 创建图像分类器: 拍摄不同项目的照片。 这些可以是不同类型的工具,不同类型的水果,甚至不同品牌的流行音乐-无论您想要什么。 将同一类型的项目分组到一个文件夹中,该文件夹的名称为事物本身。 例如,如果您要比较不同类型的水果(例如:香蕉和苹果),则可以将香蕉的所有照片放入名为“ Banana”的文件夹中,并将苹果的所有照片放入名为“ Apple”的文件夹中 打开Xcode Playrounds并输入以下代码: 导入 CreateMLUI 让 builder = MLImageClassifierBuilder() builder.showInLiveView() 4.打开实时视图并运行游乐场。 您应该看到以下内容: 5.将所有文件夹放在一个大文件夹中,然后将该文件夹放到框中,然后它将训练模型。 6.测试您是否有测试集。 如果有更多图像(也已排序),则可以测试模型的准确性。 7.将模型导出为.mlmodel 接下来需要做的是使用ML模型设置Vision框架。 您将需要创建一个分类请求对象。 输入以下代码,在第一行中用模型名称替换“ Model()”,然后是“()”: 私人 惰性 var分类请求:VNCoreMLRequest = { do { let model = try VNCoreMLModel […]

ARKit怎么了? #9 —手势控制,USDZ生成器,电影预览IRL

这是有关ARKit的每周新闻,您可以在 WhatsUpARKit.com上 订阅 最近,我遇到了几个开发人员,他们致力于以下令人兴奋的AR应用程序。 与ARKit相关的初创公司不断向开发者发布Beta版邀请。 我们还将很快看到在带有iOS 12的AppStore上发布的新ARKit 2.0应用程序。 享受第九期 奥斯卡@osfalmer twitter.com 在Apple工作的David Lui(@lDavixl)表示,您现在可以通过嵌入usdz文件轻松地将AR内容集成到Apple文章中! 这是有关此文件的Apple文档。 manomotion.com ManoMotion是一家初创公司,致力于使用非常精确的手部跟踪来控制AR体验,包括ARKit。 他们最近向开发人员开放了Beta版,您可以在其网站上订阅她。 您还应该查看由日本开发人员@lileaLab制作的带有此链接的演示。 twitter.com Warren Moore @warrenm发现,ARKit Quick Look Gallery现在包含一个链接,用于下载包含独立USD(v18.09)库和驱动它们的Python脚本的软件包。 ZIP文件位于https://developer.apple.com/arkit/gallery/的底部 twitter.com Jacobo Koenig(@jacobokoenig)创建了一个概念,可以直接在剧院上映电影预览。 twitter.com Alberto Taiuti(@albtaiuti)和Jordan Campbell(@jordanNZ_AR)正在构建一个应用程序,可让您在当前所在的地图上放置所选的任何3D环境。 酷演示! twitter.com Cabbibo(@Cabbibo)创建了一个与AR和卡片互动的示例。 他/她还对其背后的XR反射做了完整的论述。 同样,您可以查看Cameron Horst的工作。 6天 6D.ai AR Cloud初创公司最近通过SceneKit&Swift支持更新了其Beta版,您可以在其网站6D.ai上进入Beta版。 twitter.com 最近发现了这个非常有趣的概念应用程序,在播放歌曲时可以在您的脸上产生惊人的效果。 这是开发人员的网站kitasenjudesign.com,并提供下载免费应用程序的链接-下载。 玫瑰色 Rosie通过冒险的难题和活跃的游戏向您的孩子介绍机器人技术和编程。 适用于iPhone的有趣且具有教育意义的AR应用程序。 在此处免费下载。 遇到了他们的开发者Florian Maushart @FloMaushart之一,强烈建议也跟随他! twitter.com Daniel(@ […]

Unity 3D + MakeHuman + Vuforia =增强现实世界

没有什么能比让您的想象力在现实世界中发挥更大的乐趣了,这项技术已经在某种程度上控制了一切并连接了一切。增强现实(AR)是一种神奇的创作,广泛应用于各个行业,使您感到自己至少在虚拟世界中可以实现您的愿望。 增强现实每次使用都是新事物。 AR是实时摄影机,您的数字对象可与现实环境互动。 AR使您可以坐在Lion旁边或什至位于狮子的上方。尽管很多人正在现实中实现它,但我知道这是一个有趣的例子。 因此,AR的主要目的是利用技术本身进行冒险。 我为移动iOS实现了增强现实应用程序,这就是它的工作原理。 背景图片是我的杂志书的封面,这个人正好站着一个使用’MakeHuman’创建的类人动物.MakeHuman是一个旨在创建虚拟人的开源工具,它是一个完整的工具,可以帮助我们创建逼真的类人动物角色。可以导出到其他软件工具并与之一起使用。可以在其他软件工具中对这些3D模型人形生物进行进一步的改进,例如人类的步行,奔跑,坐下等动作。让我们简要讨论如何导入这些3D模型人形生物。人物融入Unity并让这个人走。 使用ARCamera配置Unity并将Vuforia的SDK导入到您的项目中。鞋子,衣服和头发的颜色都是小的眼球。它还具有您想要您的男人像美国人,亚洲人那样的人的特征。很酷吧!花些时间熟悉一下MakeHuman中所有可用功能的外观。 聪明,不是! 保存您的人类并将其导出到Unity项目的资产。将这些人形生物放置在ImageTarget上,相应地转换您的对象。您可以在unity项目中进行测试以查看对象是否正确放置。我们现在已设置了运行该应用程序的基本功能但是,更有趣的是让这些人为您的动作而移动。另一个基本功能是当用户触摸屏幕时,3D模型进行移动(行走,奔跑,坐着,跳动)。我们可以从Asset store下载动画化身我使用了“ Raw Mocap数据”,该数据由虚拟形象的不同动画组成。 现在,让我们的人体模型移动,为控制器添加所有动作和它们之间的过渡,让步入空闲并向步入空闲添加参数,并给出一些大于或小于该值的条件,我们将使用它稍后控制脚本中的动画。让我们看看我们是否在同一页面上。 现在让我们继续进行一些编码。使用您熟悉的语言创建C#脚本或JavaScript。这可能是我编写过的最简单的代码之一。只需根据用户的触摸次数用相应的动画更新功能即可。代码段: 你去了!!!!! 将您的项目构建到移动iOS或Android上并运行.charm之类的作品。这些超赞的工具提供了许多功能。深入了解所有令人惊奇的功能。即使与您一起学习,也请分享您对实现这些想法的想法AR应用。

零售业的增强现实(AR)—为什么它是客户参与度中的第二佳

增强现实(AR)从成为天上掉馅饼的想法到目前已被领先的零售品牌(无论是在店内还是在电子商务领域)吸收了很长的路要走。 根据Digi-Capital的一项研究,AR市场预测是,到2022年,整个AR市场(不仅仅是业务应用)可能达到850亿美元至900亿美元。 简单来说,AR是将数字虚拟信息中的覆盖层插入现实世界的功能。 尽管这可能是革命性的,但该技术可以追溯到1962年,当时摄影师摄影家Morton Heilig发布了具有视觉,声音,振动和气味的模拟器“ Sensorama”。 波音公司的研究员汤姆·考德尔(Tom Caudell)于1990年创造了“增强现实”一词。此外,在1992年,路易斯·罗森伯格(Louis Rosenberg)为美国空军开发了首个身临其境的增强现实系统-战斗机的平视显示器-提高人类绩效。 在这里,符号被显示在透明的玻璃流中,从而消除了看仪表的注意力,因此使飞行员能够更好地瞄准武器。 这种平视显示器进一步用于多个领域,例如汽车,旅行,医药和教育,零售和电子商务。 因此,随着AR技术的飞速发展,其潜力是无限的。 增强现实和虚拟现实是彼此的反向反映,因为每种实现对用户而言都有不同的目的。 VR是由计算机生成的模拟,其中一个人的环境被替换了。 以戴着耳机的虚拟现实视频游戏为例,它将带您进入一个不同的数字化世界,该世界旨在充实您的感官。 它是心灵传送的一种形式,是对我们现实的近似,是数字的,但本身不是现实。 另一方面,增强现实将虚拟元素作为与现实世界的重叠提供。 其他区别点是: 增强现实添加了虚拟组件,例如数字图像或视觉效果,振动或感觉(声音和气味),作为与实际物理世界互动的新层。 另一方面,虚拟现实将构建自己的计算机生成的世界并加以驱动。 用户可以通过头戴式或手持式控制器体验虚拟现实。 该设备允许用户在模拟环境中控制和导航他们的动作,这与现实世界相去甚远。 另一方面,增强现实技术很容易在笔记本电脑,智能手机和平板电脑等移动设备中使用。 通过展示两个世界如何相交和相互作用,它将现实世界与数字世界融合在一起。 我们的AR冒险之一是通过协助他们的购买过程为零售商店中的客户提供虚拟移动体验。 在这里,向顾客提供了在商店内移动时的实时信息,例如描述,价格和产品位置。 它们还提供了其他类似产品作为替代产品。 随着大型超市的发展,机动性可能是一项艰巨的任务。 同样,鉴于大量的前来,由个人客户服务主管全程指导客户的可能性不大。 而且,由于展示了无数产品,它们可能会容易分心,最终购买实际上不需要的东西。 在这种情况下,通过移动设备创建虚拟购物体验会更加方便和有意义。 我们构建了一个零售AR应用程序,该应用程序不仅具有交互性,而且还使客户能够找到他们真正想要的东西。 换句话说,它帮助他们做出了明智的选择,还帮助零售商很好地定位了他们的产品。 我们在应用程序中内置了以下功能: 在这里,客户可以按照应用程序上的以下步骤前往特定部门: 在零售商店或当前部门的入口处扫描条形码 接下来,查看各个部门 第三,选择查看部门的路径 接下来,路径将出现在增强现实视图中 客户现在可以按照实时摄像头中显示的路径进行操作 客户将按照建议的路径到达所选部门 注意:在这里,客户也可以按照相同的步骤从一个部门转移到另一个部门。 客户在部门中选择产品后,应用程序将引导他们使用推荐的产品。 步骤如下: 扫描所选产品的条形码 客户将查看推荐的产品 客户可以选择选项以查看推荐产品的路径 接下来,路径将出现在增强现实视图中 然后,客户将遵循实时摄像机上显示的路径 客户将到达过道以及放置产品的确切位置 该应用程序使商店所有者可以为客户搜索部门或相关产品添加路线。 以下是他们需要遵循的步骤: 扫描部门的起始产品或职位以添加路线 接下来,选择目标产品或部门 现在,选择“开始”并开始向目的地走去 […]