Tag: 语音识别

iPhone:语音识别在IOS SDK中可用?

有谁知道,如果在Siri中使用的“语音到文本”和“文本到语音”API可以在IOS 5或IOS 6 SDK中访问吗? 我研究过,但在文档中找不到任何东西,所以如果没有包含在SDK中,那么市场上是否有任何“Siri”质量库?

Shazam或Sound Hound如何工作?

我正在开发iOS SDK 5.0的应用程序和XCode 4.2 。 我想开发一个识别声音的应用程序。 我看到有一个称为声音猎犬的应用程序,可以识别音乐,并告诉艺术家和标题。 我怎样才能做类似的事情? 我想比较一个声音与现有的声音数据库。 我怎样才能做到这一点? 也许我可以使用傅立叶变换 。 我不知道如何处理声音。 或者它可能类似于语音识别,不是吗?

如何为iOS语音应用程序做什么?

如何使Vlingo像应用程序? 有没有任何API可以用于制作应用程序的iOS? 请提供一些指南或任何教程或帮助或评论,将不胜感激提前致谢 我也很想知道,说话的时候,这只狗和说话的猫咪是怎么说的,我们说话的时候是用滑稽的声音重复着。 怎么可能?

video播放后,语音文本sdk会冻结

我正在使用由https://github.com/todoroo/iPhone-Speech-To-Text提供的speech-to-text sdk 识别器工作得很好,直到使用MPMoviePlayerController播放video为止。 这里是我用来调用识别器的代码: – (IBAction)actionBtRecognition:(id)sender { if(recognizer == nil){ recognizer = [[SpeechToTextModule alloc] init]; } [recognizer beginRecording]; } 要播放电影,我使用了本教程 所以,一旦我播放电影和呼叫识别器,它只是冻结。 当我debuggingSDK源代码时,我发现我的声音不是录音。 可变meterStateDB.mAveragePower总是= -120 请注意,在我的苹果iphone模拟器所有作品完美! 但在真正的设备上(iphone 4,ios 5.1.1)发生了我上面描述的问题。 也许这只是我的设备问题? 如果有人在自己的设备上检查相同的东西,我将非常感激。

支持西class牙语的iOS语音识别框架

是否有支持西class牙语的iOS语音框架的演讲? 商业或操作系统是好的。

iOS上的Google Voice识别

我想在我的iOS应用上使用Google语音识别/语音API。 有人知道我怎么能做到这一点?

9在Swift上实现Nuance语音识别,不能听onResult,onError …事件

我有我的Speech Recon项目的两个部分Nuance,一个模块(ObjectiveC)的.h文件和一个ViewController (swift)。 我想在我的swift viewController设置一个viewController对象,并且监听onBegin,onStop …等方法。 使其编译的唯一方法是使用nil作为委托参数来初始化SpeechRecon对象。 显然这不好,因为我的onStart和onFinish函数不会触发。 我已经实现了SKRecogniser文件的协议,并将我的ViewController类扩展到SKReconDelegate …但是如果我使用“self”作为委托初始化对象,编译器会说UIViewController不是一个有效的类。 我知道我需要在两个类之间build立一些委托,但我是一个Android开发人员,而我的iOS技能还不够尖锐。 这里是代码,如果我错过了一些重要的东西,只是让我知道。 我会非常感谢你的帮助。 //ViewController code, in SWIFT //NO PROTOCOLS NEEDED HERE! class ViewController: UIViewController, SpeechKitDelegate, SKRecognizerDelegate{ override func viewDidLoad() { super.viewDidLoad() SpeechKit.setupWithID( "NMDPTRIAL_nuance_chch_com9999", host:"sandbox.nmdp.nuancemility.net", port:443, useSSL:false, delegate:self) //error said "self" is of an invalid ViewController type 🙁 because I was NOT implementing all 4 methods […]

纳入细微的龙手机的语音套件时,架构armv7的未定义符号

我将我的应用程序与naunce dragon mobile的speechkit集成在一起,运行时出现错误: Undefined symbols for architecture armv7: "_kCFStreamPropertySSLPeerCertificates", referenced from: l469 in SpeechKit(libSpeechKit.a-armv7-master.o) l642 in SpeechKit(libSpeechKit.a-armv7-master.o) l643 in SpeechKit(libSpeechKit.a-armv7-master.o) "_kCFStreamSSLValidatesCertificateChain", referenced from: l469 in SpeechKit(libSpeechKit.a-armv7-master.o) "_kCFStreamSSLAllowsAnyRoot", referenced from: l469 in SpeechKit(libSpeechKit.a-armv7-master.o) "_OBJC_CLASS_$_AVAudioPlayer", referenced from: objc-class-ref in SpeechKit(libSpeechKit.a-armv7-master.o) "_kCFStreamSSLPeerName", referenced from: l469 in SpeechKit(libSpeechKit.a-armv7-master.o) "_kCFStreamSSLAllowsExpiredRoots", referenced from: l469 in SpeechKit(libSpeechKit.a-armv7-master.o) "_kCFStreamSSLAllowsExpiredCertificates", referenced from: l469 in […]

有没有人为iOS的Nuance Dragon移动语音SDK创build了一个MonoTouch绑定?

我有在Windows Phone 7上运行良好的龙移动SDK,我想获得适用于iOS的等效function。 由于SDK包装了麦克风,因此在我的MonoTouch项目中使用.NET程序集是不太可能的(即使我有源码)。 看来最好的办法是创build一个绑定库(如Miguel 在这里所描述的)。 它确实看起来像很多工作,但我很乐意重用,而不是重新发明轮子,如果有人已经做到了这一点… …

有没有办法在离线模式下使用iOS语音识别?

我想知道是否有离线模式下使用iOS语音识别的方法。 根据文档( https://developer.apple.com/reference/speech )我没有看到任何关于它。