Tag: sfspeechrecognizer

我们可以使用语音框架而videoplayback进行?

我正在使用AVPlayerController播放video,同时我想使用语音命令来停止video。 所以我试图使用语音框架相同,但我得到错误com.apple.coreaudio.avfaudio',原因:'所需的条件是false:format.sampleRate == hwFormat.sampleRate' 在使用Speech框架进行logging时,我尝试使用类别进行会话 [AVAudioSession setCategory:AVAudioSessionCategoryPlayAndRecord withOptions:AVAudioSessionCategoryOptionMixWithOthers error:&sessionError]; 在recognitionTaskWithRequest中也没有得到任何回应 无论我需要检查降噪algorithm还是其他一些我必须做的工作。 这可能吗? 任何帮助或build议将不胜感激。

iOS 10.0语音识别错误kAFAssistantErrorDomain

我尝试使用下面的语音识别 let urlpath = Bundle.main().pathForResource("myvoice2", ofType: "m4a") let url:URL = URL.init(fileURLWithPath: urlpath!) let recognizer = SFSpeechRecognizer() let request = SFSpeechURLRecognitionRequest(url: url) recognizer?.recognitionTask(with: request, resultHandler: { (result, error) in print (result?.bestTranscription.formattedString) }) 结果是零,我debugging,看到如下错误 Error Domain=kAFAssistantErrorDomain Code=1101 "(null)" 你有什么主意吗?

Swift:试图迅速改变语音到iPhone的声音时,iPhone的音量很低

我正在尝试语音识别示例。 如果我开始通过麦克风来识别我的发言,那么我试图让iPhone识别文本的声音。 这是工作。 但是,声音太低了。 你能指导我吗? 而不是,如果我正在尝试简单的button操作,与AVSpeechUtterance代码,音量是正常的。 之后,如果我使用startRecognise()方法,则音量太低。 我的代码 func startRecognise() { let audioSession = AVAudioSession.sharedInstance() //2 do { try audioSession.setCategory(AVAudioSessionCategoryPlayAndRecord) try audioSession.setMode(AVAudioSessionModeDefault) try audioSession.setMode(AVAudioSessionModeMeasurement) try audioSession.setActive(true, with: .notifyOthersOnDeactivation) try AVAudioSession.sharedInstance().overrideOutputAudioPort(AVAudioSessionPortOverride.speaker) } catch { print("audioSession properties weren't set because of an error.") } recognitionRequest = SFSpeechAudioBufferRecognitionRequest() guard let inputNode = audioEngine.inputNode else { fatalError("Audio engine has […]