Flutter,本机API和插件(2/3)

(译自法文:Flutter,API本机和插件(2/3))

“我们需要谈谈…”

在第一部分中,我们已经了解了MethodChannels的基础。

现在,我们将仔细研究语音识别通道的基本实现。

语音识别

  1. 我们的应用程序需要使用麦克风和语音识别的权限 。 在iOS和Android 7.1+上首次启动时,用户必须接受该请求。
  2. 接受请求后,主机将调用Dart方法以确认识别可用性。
  3. 从那里,Flutter可以通过在专用通道上调用“开始/收听”方法来开始识别。
  4. 在调用start方法之后,记录开始,然后主机调用onRecognitionStarted
  5. Flutter应用程序将收到:
  • 中间成绩单(在iOS上)
  • 并且一旦用户停止识别( stop() ),则通过onRecognitionComplete(String completeTranscription)的最终转录

第一次实施

首先,我们需要在iOS端使用Swift创建一个项目(将ObjC用作默认语言)。 Flutter CLI使您可以使用以下命令进行定义:

flutter create -i swift --org com.company speech_project

  • ` -i swift`选择iOS的Swift
  • --org选择项目名称空间
  • 我们也可以选择使用-a kotlin`在Android的Kotlin中编写

扑/飞镖

SpeechRecognizer类处理Flutter 主机通信。

资源资源

  • 文献资料
  • Sytody应用
  • Speech_recognition插件
  • Flutter插件和软件包

Interesting Posts