在iOS应用程序中将Face Emotion识别模型与dlib和openCV一起使用

在上一篇文章中,您了解了如何在python中创建ML模型。 在本教程中,我将向您介绍如何在iOS应用程序中集成相同模型。

为此,您需要基本了解如何创建具有摄像头集成的iOS应用程序以及使用python创建核心ML模型。

步骤1:在xcode中集成核心ML模型

首先,您创建一个使用camera的简单xcode项目。 现在,您需要拖放使用python创建的ML模型(.mlmodel)。 您需要确保检查是否需要复制项目。 这将生成一个快速文件,供以后使用。

步骤2:使用CIDetector检测面部直肠

您可以使用任何框架来检测图像中的实际面部边界。 我更喜欢使用CIDetector。 您需要使用摄像机输出中的图像缓冲区找到CIImage。

通过将这些点作为输入传递给使用相同dlib点创建的MLModel,我们可以预测面部表情。

谢谢。

    Interesting Posts