Flutter,本机API和插件(2/3)
(译自法文:Flutter,API本机和插件(2/3))
“我们需要谈谈…”
在第一部分中,我们已经了解了MethodChannels的基础。
现在,我们将仔细研究语音识别通道的基本实现。
语音识别
- 我们的应用程序需要使用麦克风和语音识别的权限 。 在iOS和Android 7.1+上首次启动时,用户必须接受该请求。
- 接受请求后,主机将调用Dart方法以确认识别可用性。
- 从那里,Flutter可以通过在专用通道上调用“开始/收听”方法来开始识别。
- 在调用
start
方法之后,记录开始,然后主机调用onRecognitionStarted
- Flutter应用程序将收到:
- 中间成绩单(在iOS上)
- 并且一旦用户停止识别(
stop()
),则通过onRecognitionComplete(String completeTranscription)
的最终转录
第一次实施
首先,我们需要在iOS端使用Swift创建一个项目(将ObjC用作默认语言)。 Flutter CLI使您可以使用以下命令进行定义:
flutter create -i swift --org com.company speech_project
- ` -i swift`选择iOS的Swift
-
--org
选择项目名称空间 - 我们也可以选择使用-a kotlin`在Android的Kotlin中编写
扑/飞镖
SpeechRecognizer类处理Flutter 主机通信。
资源资源
- 文献资料
- Sytody应用
- Speech_recognition插件
- Flutter插件和软件包