Tag: audiokit

使用AudioKit开发-基础

本教程介绍了如何在iOS应用中使用AudioKit框架。 目标读者是经验丰富的iOS开发人员,对AudioKit几乎没有经验。 仅使用基本的AudioKit功能。 实际上,仅使用AudioKit Basics游乐场中演示的功能。 在使用本教程之前,与该游乐场一起玩可能是一个好主意。 涵盖了教程中的iOS细节,但没有详细信息。 嵌入式图形,源代码和GitHub项目应提供足够的细节。 本教程重点介绍Audikit集成,因此忽略了某些iOS特定信息(例如AudoLayout)。 1先决条件 假定熟悉使用Xcode,Swift和CocoaPods的iOS应用程序开发。 本教程练习了Basics游乐场中演示的许多功能。 因此,最好先穿过那个操场。 游乐场可以作为单独的zip文件下载,也可以克隆GitHub存储库。 可以在AudioKit下载页面上找到说明。 2创建项目 2.1创建一个新的Xcode项目 使用Single View App模板创建一个新的iOS Xcode项目(New / Project…),并提供适当的选项。 项目名称= AudioKit-Basics-Tutorial 团队=无 语言= Swift 2.2项目设置 部署信息 AudioKit iOS项目(AudioKit / AudioKit / iOS /)是使用9.0的部署目标构建的,因此我们将执行相同的操作。 部署目标= 9.0 2.3运行项目 生成项目并在Simulator(iPhone XR)中运行它,以确保到目前为止没有错误。 在运行的应用程序中应该可以看到一个空白视图,见图2.3。 此时的项目状态反映为GitHub上的v1.0版本。 3将AudioKit框架添加到项目中 可以使用包管理器(CocoaPods或Carthage)将AudioKit作为预编译框架或源添加到项目中。 有关这些选项的更多信息,请参考下载和框架页面。 3.1将AudioKit添加为CocoaPod。 本教程将AudioKit框架添加为CocoaPod,因此必须在开发计算机上安装CocoaPods。 所需步骤包括: 使用pod init创建默认的Podfile。 编辑Podfile,将AudioKit框架添加到项目中。 使用pod install安装AudioKit依赖项。 […]

AudioKit 4.0.1 – types'AKSequencer'的值没有成员'avTracks'

AudioKit从3.7.1升级到4.0.1后,我的应用程序停止工作。 这是我的代码: sequencer = AKSequencer(filename: myMidi) for i in 0..<popCount { //start Audio sequencer!.avTracks[i].destinationAudioUnit = gPOPs[i].samplePlayer.samplerUnit } 这里是我得到的错误消息: “ AKSequencer ”types的值没有成员“ avTracks ” 只是想知道是否有人可以帮助我了解已经发生了什么变化,以及如何解决这个问题。 编辑 还试过: sequencer!.tracks[i].destinationAudioUnit = gPOPs[i].samplePlayer.samplerUnit 现在得到这个错误信息: types' AKMusicTrack '的值没有成员' destinationAudioUnit ' 并试过: sequencer!.tracks[i].internalMusicTrack = gPOPs[i].samplePlayer.samplerUnit 这给出了以下错误: 无法指定“ AVAudioUnitSampler ”types的值来键入“ MusicTrack? '(又名' Optional<OpaquePointer> ')

使用audiokit在AKsequencer中创build额外MIDI轨道的问题

我一直试图解决一个神秘的正弦波问题,并没有成功。 我在这里开始一个新的问题,因为我想我已经深入到这个问题的细节。 当build立一个AKSequencer,并给它一个MIDI文件,我看到一些奇怪的结果。 对于一首4首曲目(有相应的4首曲目midi文件,持续时间与歌曲的所有歌词相匹配),我看到音序器实际上是由5首曲目产生的。 什么是额外的轨道? 另外,我在控制台中出现错误: [seq] 1026: Invalid beat range 我相信当轨道是空的时候会发生这种情况。 所以这看起来像是我神秘的正弦波的罪魁祸首。 任何想法如何我可以解决这个问题? 这让我有点疯狂 😜谢谢!

iOS:如何播放audio没有FPS滴?

我正在使用Sprite Kit开发iOS 9+游戏,最好使用Swift库。 目前我正在使用一个Singleton,我预先加载我的audio文件,每个连接到一个单独的AVAudioPlayer实例。 下面是一个简短的代码,以获得这个想法: import SpriteKit import AudioToolbox import AVFoundation class AudioEngine { static let sharedInstance = AudioEngine() internal var sfxPing: AVAudioPlayer private init() { self.sfxPing = AVAudioPlayer() if let path = NSBundle.mainBundle().pathForResource("ping", ofType: "m4a") { do { let url = NSURL(fileURLWithPath:path) sfxPing = try AVAudioPlayer(contentsOfURL: url) sfxPing.prepareToPlay() } catch { print("ERROR: Can't load […]

使用AudioKit捕获系统或应用程序audio

我不是一个最新的移动开发,所以请原谅。 我正在和一位朋友交谈,很好奇。 我有audio体验,但没有现代的迅速+ ios体验。 比方说,我有一个embeddedYouTube播放器的视图。 我发现的快速球员(豆荚等)似乎并不像audio频道那样暴露为stream或物体。 例如: // from the pod swift-audio-player // Import Swift module import YouTubePlayer @IBOutlet var videoPlayer: YouTubePlayerView! // init YouTubePlayerView w/ playerFrame rect (assume playerFrame declared) var videoPlayer = YouTubePlayerView(frame: playerFrame) // Load video from YouTube ID videoPlayer.loadVideoID("nfWlot6h_JM") 播放器具有控制播放的function,但没有任何低级别的function。 假设您可以通过不同的库获取mpegstream,并使用mpegStream.audioChannels()访问audiostream。 你怎么能把这个与AudioKit整合? 我了解如何混合/捕捉文档中的节点,但是您将在哪里插入video播放器的stream? 你会寻找与AVFoundation兼容的东西,然后附上一个采样器? // assume some library here let mpeg […]

使用AudioKit从MIDI文件读取音符

我正在尝试构build一个从MIDI文件中提取音符的音序器。 目前我正在使用AudioKit进行音乐数据处理。 想知道如何从AudioKit的MIDI文件中获取音符数据/事件。 我试图使用AKSequencer和输出到AKMIDINode来聆听MIDI事件,但似乎无法从中得到任何东西。 class CustomMIDINode: AKMIDINode { override init(node: AKPolyphonicNode) { print("Node create") // OK super.init(node: node) } func receivedMIDINoteOff(noteNumber: MIDINoteNumber, velocity: MIDIVelocity, channel: MIDIChannel) { print("midi note off") // Not printed } func receivedMIDISetupChange() { print("midi setup changed") // Not printed } override func receivedMIDINoteOn(_ noteNumber: MIDINoteNumber, velocity: MIDIVelocity, channel: MIDIChannel) { print("receivedMIDINoteOn") […]

尝试使用Audiokit中的AKMIDISampler来debugging神秘的正弦波

继上一期之后 ,我停止使用AKSampler转移到AKSampler中使用的function。 让我的循环再次工作(在这个谷歌组的post的帮助下),但我有一个正弦波播放(这发生在MIDISampler无法find它的源文件时)。 这不是我所针对的源文件的问题,因为它们都播放OK。 正弦波从这个过程中的其他地方传来,但我看不到在哪里… 请帮忙8•) (简化和编辑的代码只显示相关的细节 – 请联系澄清) var MIDISamplePlayer = AKMIDISampler() var sequencer: AKSequencer? var mixer: AKMixer! // initialise the mixer mixer = AKMixer() do { audiofile = try AKAudioFile(readFileName: SoundFilename as! String, baseDir: .resources) } catch let error as NSError { print("There's an error: \(error)") } do { try sprite.MIDISamplePlayer.loadAudioFile(audiofile) } catch […]

如何将audio效果应用于文件并写入文件系统 – iOS

我正在构build一个应用程序,允许用户将audiofilter应用于录制的audio,如混响,增强。 我无法find有关如何将filter应用于文件本身的任何可行的信息源,因为需要稍后将处理的文件上载到服务器。 我目前正在使用AudioKit进行可视化,而且我知道它可以进行audio处理,但只能用于播放。 请提供进一步研究的build议。