我正在开发一个跟踪语速的iPhone应用程序,希望能够使用Nuance Speechkit( https://developer.nuance.com/public/Help/DragonMobileSDKReference_iOS/SpeechKit_Guide/Basics.html ) 有没有一种方法跟踪框架的话语速率(例如,每隔几秒更新一次WPM)? 现在看起来只是在一个长长的话语结束时才进行语音到文本的处理,而不是每个单词都是这样(即返回部分结果)。
Microsoft Project Oxford在iOS上有一个很好的语音识别API和Objective-C指令。 按照入门指导,我可以轻松构build它。 但是,我很难将其转换为Swift语言。 我首先创build了一个快速项目。 我创build了桥头文件(ProjectName-Bridging-Header.h)并将以下代码插入到此文件中: #import "SpeechRecognitionService.h" 我想将Objective-C的头文件和实现文件转换成ViewController.swift。 ViewController.h的内容: #import <UIKit/UIKit.h> #import "SpeechRecognitionService.h" @interface ViewController : UIViewController<SpeechRecognitionProtocol> { NSMutableString* textOnScreen; DataRecognitionClient* dataClient; MicrophoneRecognitionClient* micClient; SpeechRecognitionMode recoMode; bool isMicrophoneReco; bool isIntent; int waitSeconds; } @property (nonatomic, strong) IBOutlet UIButton* startButton; /* In our UI, we have a text box to show the reco results.*/ […]
我用了需要字典的Openears。 当我们在字典中提到这个词时,它是有用的。 我想转换我们说的所有的话。 所以我用Nuance的演讲来认可dragaon SDK。 但它与networking服务器通信。 由于安全问题,我想避免服务器通信。 是否有可能将语音转换为文字,而不是在离线模式下与服务器进行通信?
在对语音框架进行了一些testing之后,我意识到结果中没有标点符号。 有没有办法触发它? 我已经看到,Siri确实认可标点符号,所以我认为它应该是可行的。
我想制作一个iOS应用来计算疑问句。 我会寻找WH的问题,也是“我会吗? 格式化问题。 我不是很懂语音或audio技术的世界,但是我做了Google,发现有很less的语音识别SDK。 但仍然不知道如何检测和graphics语调。 有没有支持语调或情感语音识别的SDK?
我正在编写iOS应用程序,应用程序可以通过MonoTouch识别用户的语音。 我需要使用麦克风并将语音文件转换为FLAC格式,才能将其发送到Google Speech API。 是否有任何库/代码示例,或者是否有可能使用MonoTouch为iOS创buildSpeech-Recognition应用程序,例如Google Speech API ? 或者有可能将audio输出(.caf文件)转换为.flac文件?
我已经成功实现了在Android上开发应用程序的目标,该应用程序使用Google API的语音识别function。 但事实是,我必须使用一个真正的游戏引擎,因为我的应用程序将是跨平台,并与一个非常丰富的用户界面和手势。 我正在考虑使用Unity Game Engine,我将把我的应用程序部署到iOS和Android平台。 所以…在网上search…我发现我不能在Unity Game Engine上使用Google语音识别API,因为它属于Google …这是真的吗? 你能给我一个如何实施这个build议吗? 第一个选项:实现第三方库或Unity Speech Recognition API。 那些? 第二个选项(这是可能的):模块化语音转换为文本的包,并通过dynamicreflection来调用它。 在Android部署上,使用Google API。 在iOS部署上,使用iOS API(Unkown也是如此)。 先谢谢你。
我试图在iPad上的Chrome上实现语音识别,没有任何运气。 只是为了削减和追赶我的webkitSpeechRecognition api的实现,Glenn Shire的优秀示例代码不能在运行iOS 5.1.1的iPad 1上的Chrome v27上运行,或者在运行iOS 7.0.4的iPad3上运行Chrome v31,至less据我所知。 它在这一行失败: if (!('webkitSpeechRecognition' in window)) { r.onState('upgrade'); return; } 我找不出一个解决方法,我还没有看到任何关于语音识别的任何在线发帖不在iOS版本的Chrome中工作。 其他人遇到这个?
对于更高版本的iOS键盘到达时,单击textView或文本字段包含一个麦克风图标,进行语音到文本转换我的问题是,是否有可能使用此function,这是苹果在我的应用程序提供的语音到文本转换点击一个button,我可以做到这一点。 提前致谢
我正在尝试开发一个使用法语语音识别的iOS应用程序,但直到现在还没有成功。 我尝试过使用openEars框架,这对于英语非常适用,但不支持法语。 我用这个链接的一些信息。 如果有人知道一个解决scheme,那就太棒了。 谢谢