iOS Speech API是否支持语法?

我正在研究各种语音识别策略,并且喜欢Web Speech规范中定义的语法思想。 看起来,如果您可以告诉您的语音识别服务您期望“是”或“否”,服务可以更可靠地将“是”认定为“是”,“否”为“否”,并且希望也能够说“这听起来不像这些!”

但是,在SFSpeechRecognitionRequest ,我只能从SFSpeechRecognitionTaskHint confirmationdictationsearchunspecified值中看到taskHint

我也看到SFSpeechRecognitionRequest.contextualStrings ,但它似乎是为了一个不同的目的。 也就是说,我想我应该把品牌/商标类的东西放在那里。 把“是”和“否”放在一起不会使这些单词更可能被选中,因为它们已经存在于系统字典中(这是基于文档说明的一个假设)。

用API来做更像语法的一种方式,或者更简单地说,只是提供一个预期的短语列表,以便语音识别更有可能产生我期待的结果,而不是类似听起来的乱码/同音字词? contextualStrings可能会增加系统select其中一个string而不是扩展系统字典的可能性吗? 或者,也许我采取了错误的做法,我应该强制执行我自己的语法和枚举SFSpeechRecognitionResult.transcriptions直到我find一个匹配的预期单词?

不幸的是,我无法亲自testing这些API。 我只是在研究编写本机iOS应用程序的可行性,而没有必要的开发环境。