使用AudioKit捕获系统或应用程序audio

我不是一个最新的移动开发,所以请原谅。 我正在和一位朋友交谈,很好奇。 我有audio体验,但没有现代的迅速+ ios体验。

比方说,我有一个embeddedYouTube播放器的视图。 我发现的快速球员(豆荚等)似乎并不像audio频道那样暴露为stream或物体。 例如:

// from the pod swift-audio-player // Import Swift module import YouTubePlayer @IBOutlet var videoPlayer: YouTubePlayerView! // init YouTubePlayerView w/ playerFrame rect (assume playerFrame declared) var videoPlayer = YouTubePlayerView(frame: playerFrame) // Load video from YouTube ID videoPlayer.loadVideoID("nfWlot6h_JM") 

播放器具有控制播放的function,但没有任何低级别的function。 假设您可以通过不同的库获取mpegstream,并使用mpegStream.audioChannels()访问audiostream。

你怎么能把这个与AudioKit整合? 我了解如何混合/捕捉文档中的节点,但是您将在哪里插入video播放器的stream?

你会寻找与AVFoundation兼容的东西,然后附上一个采样器?

 // assume some library here let mpeg = mpegStream.audioChannels() // do audiokit sampling here and be able to capture audio // like a karaoke machine / audio editor / sampler / sound board import AudioKit // attach node to mixer ?? // What interface could I look for? AVFoundation stream? Does AudioKit do that? // from here .. I am clear with concepts. // AudioKit lets you capture/route/modify audio in buffers just like // A DAW or how SoundFlower works. 

我的问题确实是,youtube播放器或MPEGstream与AudioKit之间的接线是什么? 我无法弄清楚AudioKit需要什么或者一个现实的通用接口。 我想这取决于YouTube的stream如何获取,但你可以得到一个MPEGstream没有这些高水平的播放器豆荚/库可能? 然后,我只是寻找一个AVFoundation接口(获取AVFoundationtypes,AVFoundationtypes传递给AudioKit莫名其妙)?

AudioKit目前不支持stream媒体。