iOS中的摄像头动作感应

我正在iOS上开发一个应用程序,如果相机检测到图像发生了一些变化,或者我们可以说图像中有运动,就会发生一个事件。 在这里,我不是在询问人脸识别或特定的彩色图像运动,而且我在search时得到了OpenCV的所有结果,而且我也发现可以通过使用陀螺仪和加速度计来实现这一点,但怎么样?

我是iOS的初学者。所以我的问题是,有没有任何框架或任何简单的方法来检测相机的运动或运动感应。以及如何实现?

例如,如果我在相机之前移动我的手,它会显示一些消息或警报。

和PLZ给我一些有用的和易于理解的链接关于这一点。 感谢名单

如果你想要的只是某种粗略的运动检测,我的开源的GPUImage框架里面有一个GPUImageMotionDetector。

这个公认的简单的运动检测器基于低通滤波器进行帧到帧的比较,并且可以识别帧之间已经改变的像素的数量以及改变的区域的质心。 它运行在实时video上,我知道有些人在iOS应用程序中使用它来动作激活function。

因为它依赖于像素差异而不是光stream或特征匹配,所以它可能容易出现误报,并且不能跟踪离散对象在帧中移动。 但是,如果您只需要基本的运动感应,那么这很容易就可以放到您的应用程序中。 看看FilterShowcase示例,看看它是如何工作的。

我不完全明白你的意思:

在这里,我不是在询问人脸识别或特定的彩色图像运动,因为当我search时,我得到了所有OpenCV的结果

但我会build议去opencv,因为你可以在IOS中使用opencv。 这是一个很好的链接,可以帮助你在iOS设置opencv 。

网上有很多opencvdynamic检测代码,这里是其中的一个 ,你可以利用。

您需要将UIImage (IOS中的图像types)转换为cv::MatIplImage并将其传递给opencvalgorithm。 你可以使用这个链接或这个转换。