Tag: 空气

使用AIR在iOS上stream式传输AAC +(在FLV内部)

对于stream式广播电台,我有一个AAC +audiostream,在FLV容器内部,通过HTTP传送。 示例url是http://3023.live.streamtheworld.com/ALTROCK_S01A_AAC 。 我写了一个简单的AIR应用程序(使用最新的AIR和Flex SDK)来播放这个stream,它在PC和Android上运行良好,但是在部署到iOS模拟器或设备时不会播放任何内容(即字节是加载,但没有声音)。 这类似于可以在Android中播放FLV AACstream ,但在iOS中播放 。 我想在这个场景中使用AIR,因为我需要在FLV中听取提示点 – 如果您在networking浏览器中播放Flash,这很容易,所以AIR看起来是自然select。 我也看了http://code.google.com/p/haxecast/和https://code.google.com/p/project-thunder-snow/,但他们似乎都使用相同的基本思想(parsing在“数据生成模式”中使用Netstream的FLV,并将AAC +数据提供给Video对象),所以它们都在iOS上面。 我也遇到这个post ,似乎可能是相关的,虽然它不是相同的情况(例如,它不是FLV)。 iOS上的AIR应该支持这种情况,即通过HTTPstream式传输AAC + / FLVaudio? 编辑 : 这篇文章也似乎遇到了同样的障碍 – 所以很多人都在问这种情况。 来自Adobe的任何人都有什么见解?

ActionScript,NetStream.Play.Failed iOS AIR手机

我试图在m4a(aac)stream类似于Tiberiu-Ionuţ斯坦本地audio文件(http://stackoverflow.com/questions/2036107/aac-mp4-not-working-in-actionscript-3s-netstream): package { import flash.net.NetConnection; import flash.net.NetStream; import flash.events.NetStatusEvent; import flash.events.AsyncErrorEvent; import flash.events.Event; public class Mysound { private var _connection:NetConnection; private var _netStream:NetStream; private var _filePath:String; private var _client:Object; public function MainDocument(filePath:String):void { _filePath = filePath; connect(); } private function connect():void { _connection=new NetConnection(); _connection.addEventListener(NetStatusEvent.NET_STATUS, netStatusHandler); _connection.addEventListener(AsyncErrorEvent.ASYNC_ERROR, asyncErrorHandler); _connection.connect(null); } private function netStatusHandler(event:NetStatusEvent):void { switch […]

ANE,iOS和BitmapData

有没有任何例子传入位图数据到iOS并返回一个modfified副本。 我试图将位图转换成JPEG格式 – 类似于Windows中的示例http://blog.magicalhobo.com/2011/09/12/air-3-native-extension-imagepro cessor /但它每次都崩溃。 我很确定我正在做一些基本的错误,但不是一个iOS / Objective C程序员,我真的只是尝试魔术咒语,我找不到任何好的例子。 任何帮助赞赏? 肖恩 PS下面是我的尝试: FREObject encodeJPEG(FREContext ctx, void* funcData, uint32_t argc, FREObject argv[]) { FREObject objectBitmapData = argv[0]; FREBitmapData bitmapData; FREAcquireBitmapData(objectBitmapData, &bitmapData); int width = bitmapData.width; int height = bitmapData.height; int stride = bitmapData.lineStride32 * 4; uint32_t* input = bitmapData.bits32; FREReleaseBitmapData(objectBitmapData); UIImage *myImage = [UIImage imageWithData:input]; […]

邀请iOS的Air应用程序中的Facebook朋友

我目前正在为iOS的Air应用程序工作,我有一些困难的时间试图做“邀请朋友”button。 我使用的是空气3.3的facebook-actionscript-api 1.8.1,在我的代码中有这样的内容: invite_button.addEventListener(MouseEvent.CLICK, facebookInvite); private function facebookInvite(e:MouseEvent):void { var dat:Object = new Object(); dat.message = 'I invite you to this awesome app!'; dat.title = 'Super Extra Max Facebook App'; dat.filters = ['app_non_users']; Facebook.ui('apprequest', dat); } 仅当用户login时才显示button。 但是当我尝试点击button,我得到了debugging错误: ExternalInterface not available on the device. 那么,我猜这个意思是显而易见的 – 它试图使用JS。 我如何显示朋友select对话框,并从应用程序内发送邀请? 我以为我可以写一些StageWebView容器,并在其中显示对话框,但不是有其他的,可能更简单的方法吗?

iPad Pro图标和启动图像

我正在为iOS开发基于Adobe AIR的应用程序,而且我需要知道最近为iPad Pro添加资产的名称 – 启动图像(2048 x 2732)和图标(167×167)。 不幸的是,很难根据以前的名字猜出他们的名字。

应用程序加载程序:苹果的Web服务操作不成功

我试图上传一个应用Application Loader但我得到以下错误: Apple的Web服务操作不成功无法validation软件包:54005906.itmsp发生未知错误。 (2010年) 问题是什么? 我真的找不到任何信息。

适用于iOS的Flash Pro AS 3.0 Air,方向事件不起作用

我正在开发一个默认方向设置为Flash Air for iOS设置中的人像的应用程序; 并且自动方向closures。 但是,添加一个特定的影片剪辑后,我希望它检测方向是否改变,然后改变它的风景或肖像显示的位置。 问题是,如果我禁用自动定位,则不会调度StageOrientationEvent.ORIENTATION_CHANGE。 即使启用,侦听器也只会在方向更改为倒置或默认(不是风景) package { import flash.display.MovieClip; import flash.events.MouseEvent; import flash.display.Stage; import flash.events.StageOrientationEvent; import flash.display.StageOrientation; import flash.events.Event; public class NoteBook extends MovieClip { public var type: String = new String(); public var deviceHeight: Number = new Number(); private var nbp: NoteBookPic; public function NoteBook(DeviceHeight: Number = 720) { nbp = […]

为什么在为iOS打包Adobe AIR应用程序(.IPA)时FDT显示Java堆错误

我正在使用Adobe AIR创build一些Flash游戏。 我尝试编译成.ipa文件(在iPad设备上运行)。 该项目并不大,但也不小(它使用6个库和很多没有预编译的代码)。 我尝试用这两种方法打包Flash FDT 5.5的游戏: 快 – 工作好,但performance是可怕的; 标准 – 我的编译完成以下错误: 包装失败! 打包错误消息:拾取JAVA_TOOL_OPTIONS:-Xmx3072M线程“main”中的exceptionjava.lang.OutOfMemoryError:在java.util.TreeMap.put(未知源)上的Java堆空间,位于adobe.abc.Algorithms $ SetMap.get(Algorithms。 java:225)at adobe.abc.Algorithms.addUsers(Algorithms.java:164)at adobe.abc.Algorithms.findUses(Algorithms.java:186)at adobe.abc.GlobalOptimizer.cp(GlobalOptimizer.java:9381)at adobe.abc.GlobalOptimizer.dce(GlobalOptimizer.java:9627)at adobe.abc.GlobalOptimizer.sccp(GlobalOptimizer.java:4638)at adobe.abc.GlobalOptimizer.optimize(GlobalOptimizer.java:3514)at adobe.abc.GlobalOptimizer 。在adobe.abc.LLVMEmitter.optimizeABCs(LLVMEmitter.java:527)处,在adobe.abc.LLVMEmitter.generateBitcode(LLVMEmitter.java:337)处,在com.adobe.air.ipa.AOTCompiler处优化(GlobalOptimizer.java:2215)。 convertAbcToLlvmBitcodeImpl(AOTCompiler.java:510)at com.adobe.air.ipa.BitcodeGenerator.main(BitcodeGenerator.java:80)拾取JAVA_TOOL_OPTIONS:-Xmx3072M执行时编译失败: ADT拾取了JAVA_TOOL_OPTIONS:-Xmx3072M拾取了JAVA_TOOL_OPTIONS:-Xmx3072M 我知道这是Eclipse开发的常见问题。 我试图以标准方式解决 – >增加java堆大小。 正如你所看到的,我已经设置了3072M,这应该足够了。 当我尝试编译较小的项目时,它工作正常。 我不知道现在该做什么:(。任何想法?

如何使用Adobe AIR for iOS录制有时间限制的video

我正在尝试使用适用于iOS的Adobe AIR录制带时间限制的video。 例如,我想实现以下function。 启动CameraUI录制video之前启动一分钟计时器。 当一分钟后发生超时事件时,停止录制video,closuresCameraUI视图并获取到目前为止的video数据。 我有几个相关的问题。 如何停止从CameraUI视图外面(在这种情况下,从超时事件处理程序)录制video,然后closuresCemeraUI视图? 据我所知,要closuresCameraUI视图,唯一的方法是从CameraUI视图中按[Use Video]button或[Cancel]button。 是否有可能从外面closures它? 即使上面提到的第一个问题已经解决了,那么我怎样才能得到video数据到目前为止(在这种情况下,超时之前的video数据)。 我知道通常我们可以从完整处理程序的MediaEvent参数中获取MediaPromise对象,并从MediaPromise对象中读取video数据。 但显然在这种情况下,我们无法访问MediaPromise对象,因为完全处理程序本身不会被执行,因为没有按下[Use Video]button。 CameraUI视图打开时是否可以添加秒表以显示可能的剩余录制时间? 看来,CameraUI自动使用iOS设备的全屏幕(在我的情况下,iPad),并没有多余的空间来显示秒表。 有关于上述三个问题的解决scheme或解决方法吗? 我真的很感激,如果有人有任何想法。 提前致谢。

将编码的.mp3保存到applicationStorageDirectory Adob​​e Air iOS

我正在开发一个带有Flash CS5.5 AIR v.3.1的iOS iPad应用程序 我使用ShineMp3Encoder来编码一个Wav到Mp3从: https : //github.com/kikko/Shine-MP3-Encoder-on-AS3-Alchemy 基本上,它在代码中将byteArray(wav)转换为byteArray(mp3)或“mp3encoder.mp3Data”。 我没有任何问题使用(新的FileReference())来保存。save(mp3Data,filename); 但是因为这是在一个iOS AIR应用程序中使用,我想切换到使用File.applicationStorageDirectory,以便我可以把保存的MP3放到它自己的文件夹保持组织。 当我运行代码时,它会经历所有的步骤,将wav转换为mp3,然后说它会保存,但不会有错误。 声音存储在内存中,因为它可以播放,直到应用程序closures。 我已将resolvePath更改为根文件夹myApp /,并将其更改为/ sounds – 其中没有一个可以工作。 我从来没有试图做到这一点,所以我有点迷路,为什么没有文件正在创build。 任何有任何build议的人都会帮助很多。 function onEncoded(e:Event):void{ myTI.text = "Mp3 encoded and saved. Press Play."; mp3encoder.mp3Data.position = 0; var myDate:Date = new Date(); var theDate:String = myDate.monthUTC.toString() + myDate.dayUTC.toString() + myDate.hoursUTC.toString() + myDate.minutesUTC.toString() + myDate.secondsUTC.toString(); var file:File = […]