我在一个人的扫描图像中识别眼睛

我想开发一款iPhone应用程序,该应用程序应识别QR阅读器扫描图像中人物的眼睛,脸部和肤色。

如何在图像中检测到眼睛?

尽管有可能,但我只是警告你,无论编程如何,它都会产生一定程度的不准确性。 任何面部/视网膜检测软件都可以被欺骗,并且考虑到iPhone相机的质量,它无法捕获足够的细节来准确评估两个视网膜之间的几何相关性。 而且,关于识别面部颜色,由于变化的光条件可能存在问题。 在荧光灯下,人的肤色看起来比白炽灯或自然光下更蓝。 也许有另一种方法可以解决这个问题?

为了定位眼睛,我使用了罗伯托·瓦伦蒂的“准确的眼睛中心位置和跟踪使用Isophote曲率”中描述的算法,Theo Gevers在我的硕士论文中并用它取得了非常好的结果:

http://www.science.uva.nl/research/publications/2008/ValentiCVPR2008/CVPR%2008.pdf

对于面部检测/定位,使用Viola-Jones算法,某处可能存在一个Objective-c实现。 (OpenCV有它,或者)