使用AudioKit捕获系统或应用程序audio
我不是一个最新的移动开发,所以请原谅。 我正在和一位朋友交谈,很好奇。 我有audio体验,但没有现代的迅速+ ios体验。
比方说,我有一个embeddedYouTube播放器的视图。 我发现的快速球员(豆荚等)似乎并不像audio频道那样暴露为stream或物体。 例如:
// from the pod swift-audio-player // Import Swift module import YouTubePlayer @IBOutlet var videoPlayer: YouTubePlayerView! // init YouTubePlayerView w/ playerFrame rect (assume playerFrame declared) var videoPlayer = YouTubePlayerView(frame: playerFrame) // Load video from YouTube ID videoPlayer.loadVideoID("nfWlot6h_JM")
播放器具有控制播放的function,但没有任何低级别的function。 假设您可以通过不同的库获取mpegstream,并使用mpegStream.audioChannels()
访问audiostream。
你怎么能把这个与AudioKit
整合? 我了解如何混合/捕捉文档中的节点,但是您将在哪里插入video播放器的stream?
你会寻找与AVFoundation兼容的东西,然后附上一个采样器?
// assume some library here let mpeg = mpegStream.audioChannels() // do audiokit sampling here and be able to capture audio // like a karaoke machine / audio editor / sampler / sound board import AudioKit // attach node to mixer ?? // What interface could I look for? AVFoundation stream? Does AudioKit do that? // from here .. I am clear with concepts. // AudioKit lets you capture/route/modify audio in buffers just like // A DAW or how SoundFlower works.
我的问题确实是,youtube播放器或MPEGstream与AudioKit之间的接线是什么? 我无法弄清楚AudioKit需要什么或者一个现实的通用接口。 我想这取决于YouTube的stream如何获取,但你可以得到一个MPEGstream没有这些高水平的播放器豆荚/库可能? 然后,我只是寻找一个AVFoundation接口(获取AVFoundationtypes,AVFoundationtypes传递给AudioKit莫名其妙)?
AudioKit目前不支持stream媒体。
- 如何在CloudKit Dashboard中使用“fetchWithRecordID”自动生成ID?
- 如何在Alamofire中设置requestSerializer
- swift:添加haneke.framework到xcode 7.0.1不起作用
- “#selector”的参数不涉及初始值设定项或方法
- 在单独的View Controller上使用scrollViewDidScroll时,无法更改UINavigationBar的样式
- 如何在Swift 2中切换到前置摄像头?
- 有没有办法在构build我的Cocoapod时指定另一个分支的依赖关系?
- 下标:使用string枚举访问我的字典值
- 命令/ bin / sh失败,退出代码1和embedded式pod框架