iPhone的iOS是有可能创build一个测距仪与2激光指针和iPhone?

我正在研究一个可以移动的iPhone机器人。 其中一个挑战就是估计到物体的距离 – 我不希望机器人碰到物体。 我看到一些非常昂贵(约1000美元)的激光测距仪,并希望用iPhone模拟一个。

我有一个或两个摄像头和两个激光指针。 激光指示器以约6英寸的间隔安装,angular度相对于照相机的激光angular度是已知的。 相机相互之间的angular度是已知的。

激光指向摄像头前方,在摄像头上创build2个点。 是否可以通过查看摄像机图像中的点之间的距离来估计与点的距离?

激光形成一个梯形从

/wall \ / \ /laser mount \ 

当激光安装架靠近墙壁时,点应该彼此远离。

我说的是可行的吗? 有没有人做过这样的事情?

我需要一个或两个摄像头进行这种计算吗?

如果你只是不想碰到事情,而不是准确地知道与他们的距离,那么你可以去“朦胧”,只要检测到两点成为一个 – 这将是在一个已知的距离从对象。

为了计算,有四个激光器是成本更低的,两对,每对以不同的angular度,一对在另一对之上。 然后比较点之间的相对差异可能会让你找出合理的准确距离。 math溢出为那个,虽然。

理论上,是的,像这样的东西可以工作。 谷歌的“光条”或“结构化光深度测量”是为了更大规模地使用这种想法进行一些良好的讨论。

在实践中,你的测量可能是粗糙的。 有许多因素需要考虑:相机的内在参数(焦距等)和外部参数将影响图像帧中点的出现方式。

只有两个采样 (注意结构光线方法使用线条等),环境将给距离测量带来困难。 直接垂直于地面(和行进方向)的表面可以很好地处理。 斜坡和斜angular墙可能被检测到,但是你会发现许多情况会导致模糊或不正确的距离测量。