在iOS应用程序中将Face Emotion识别模型与dlib和openCV一起使用
在上一篇文章中,您了解了如何在python中创建ML模型。 在本教程中,我将向您介绍如何在iOS应用程序中集成相同模型。
为此,您需要基本了解如何创建具有摄像头集成的iOS应用程序以及使用python创建核心ML模型。
步骤1:在xcode中集成核心ML模型
首先,您创建一个使用camera的简单xcode项目。 现在,您需要拖放使用python创建的ML模型(.mlmodel)。 您需要确保检查是否需要复制项目。 这将生成一个快速文件,供以后使用。
步骤2:使用CIDetector检测面部直肠
您可以使用任何框架来检测图像中的实际面部边界。 我更喜欢使用CIDetector。 您需要使用摄像机输出中的图像缓冲区找到CIImage。
通过将这些点作为输入传递给使用相同dlib点创建的MLModel,我们可以预测面部表情。
谢谢。