使用Core ML和Vision Framework进行图像识别
Core ML为开发人员提供了许多构建诸如图像识别,自然语言处理(NLP),文本预测等功能的可能性。
现在您将想到,很难在应用程序中实现这种类型的AI,但是令您惊讶的是,Core ML非常易于使用。 在本教程中,我们将看到只需几行代码即可将Core ML集成到我们的应用程序中。
那不是很酷吧? 让我们开始吧。
应用概述
我们正在尝试制作的应用程序非常简单。 我们的应用程序将允许用户从相机拍摄照片或从其照片库中选择照片。 然后,机器学习算法将尝试预测图片中的对象。 结果可能不准确,但是您将了解如何在应用程序中应用Core ML。
让我们开始吧。
建立专案
首先,使用Xcode 9创建一个新项目,然后选择单视图应用程序模板,并确保将语言设置为Swift。
创建用户界面
让我们首先移至Main.storyboard文件并添加一些UI元素。 在视图中添加UIImageView,UILabel和UIButton。
默认情况下,我向UIImageView添加了一个默认图像,此后有一个UILabel将显示其可信度的预测答案。 最后,有一个UIButton将帮助我们从“相机”或“照片库”中拾取图像。
让我们继续前进。
移至ViewController.swift文件并在UIKit import语句正下方导入Core ML和Vision。
在这里,您可以看到准确性没有达到目标,但是我们仍然可以清楚地知道如何使用Core ML模型。 您可以通过以下链接了解更多信息:
核心ML | Apple开发人员文档
Core ML针对设备上的性能进行了优化,从而最大程度地减少了内存占用和功耗。 正在运行… developer.apple.com 机器学习-Apple开发人员
充分利用Core ML这一在苹果产品(包括Siri)中使用的新的基础机器学习框架。developer.apple.com