Tag: 苹果语音

iOS Speech API是否支持语法?

我正在研究各种语音识别策略,并且喜欢Web Speech规范中定义的语法思想。 看起来,如果您可以告诉您的语音识别服务您期望“是”或“否”,服务可以更可靠地将“是”认定为“是”,“否”为“否”,并且希望也能够说“这听起来不像这些!” 但是,在SFSpeechRecognitionRequest ,我只能从SFSpeechRecognitionTaskHint confirmation , dictation , search和unspecified值中看到taskHint 。 我也看到SFSpeechRecognitionRequest.contextualStrings ,但它似乎是为了一个不同的目的。 也就是说,我想我应该把品牌/商标类的东西放在那里。 把“是”和“否”放在一起不会使这些单词更可能被选中,因为它们已经存在于系统字典中(这是基于文档说明的一个假设)。 用API来做更像语法的一种方式,或者更简单地说,只是提供一个预期的短语列表,以便语音识别更有可能产生我期待的结果,而不是类似听起来的乱码/同音字词? contextualStrings可能会增加系统select其中一个string而不是扩展系统字典的可能性吗? 或者,也许我采取了错误的做法,我应该强制执行我自己的语法和枚举SFSpeechRecognitionResult.transcriptions直到我find一个匹配的预期单词? 不幸的是,我无法亲自testing这些API。 我只是在研究编写本机iOS应用程序的可行性,而没有必要的开发环境。

有没有办法在离线模式下使用iOS语音识别?

我想知道是否有离线模式下使用iOS语音识别的方法。 根据文档( https://developer.apple.com/reference/speech )我没有看到任何关于它。