iOS中的背景GPS。 这可能吗?

我想知道是否有可能得到iPhone的位置与未运行的应用程序,或至less在后台运行。 我想要做的是当iPhone到达某个坐标时,iPhone会发送一个推送通知。 这可能吗? 如果是这样,有人可以把我放在正确的方向吗? 谢谢,本

YUV到苹果A4的RGBA,我应该使用着色器还是NEON?

我正在为Apple TV编写媒体播放器框架,使用OpenGL ES和ffmpeg。 在OpenGL ES上渲染需要转换为RGBA,使用swscale软转换的速度非常慢,所以使用互联网上的信息我提出了两个想法:使用霓虹灯(如这里 )或使用片段着色器和GL_LUMINANCE和GL_LUMINANCE_ALPHA。 正如我对OpenGL几乎一无所知,第二个选项仍然不工作:) 你可以给我任何指针如何进行? 先谢谢你。

硬件加速h.264解码到纹理,覆盖或类似的iOS

是否有可能并支持使用iOS硬件加速h.264解码API来解码本地(非stream式)video文件,然后在其上编写其他对象? 我想制作一个应用程序,它涉及在video前面绘制graphics对象,并使用播放定时器将我在上面绘制的内容与video上正在播放的内容同步。 然后,根据用户的操作,改变我正在绘制的顶部(而不是video) 来自DirectX,OpenGL和Android的OpenGL ES,我想像的是将video渲染为纹理,并使用该纹理绘制全屏幕四边形,然后使用其他精灵来绘制其余的对象; 或者可能在渲染器之前写一个中间filter,这样我就可以操纵单个输出框架并绘制我的东西; 或者可以在video顶部绘制一个2D图层。 AV基金会或核心媒体似乎可以帮助我做我正在做的事情,但在深入细节之前,我想知道是否有可能做我想做的事情,我的主要路线来解决问题。 请不要“这太先进了,先试试世界先声”的答案吧。 我知道我的东西,只是想知道我想做什么是可能的(最重要的是,支持,所以应用程序不会最终被拒绝),我自己研究的细节之前。 编辑: 我对iOS开发不熟悉,但专业地为Android做DirectX,OpenGL和OpenGL ES。 我正在考虑制作一个我现在拥有的Android应用程序的iOS版本,我只想知道这是否可能。 如果是这样,我有足够的时间从头开始iOS开发,直到做我想做的事情。 如果不可能,那么我现在就不会花时间研究整个平台。 所以这是一个技术上的可行性问题。 我不是在请求代码。 我正在寻找types为“是的,你可以这样做的答案,只需使用A和B,使用C渲染到D并用E画出你的东西”,或者“不,你不能,硬件加速解码是不适用于第三方应用程序“(这是朋友告诉我的)。 就这样,我会在路上。 我已阅读ios技术概述第32页中的video技术概述 。 它几乎说,我可以使用媒体播放器的最简单的播放function(不是我所期待的),UIKitembeddedvideo多一点控制embedded,但不是在实际播放(而不是我的'寻找),AVFoundation更多的控制回放(也许我需要的,但我在网上find的大部分资源谈论如何使用相机),或核心媒体有完整的低级别的video控制(可能是我需要,但是logging极其糟糕 ,甚至比AVFoundation更缺乏播放资源)。 我担心我可能会在接下来的六个月中全职学习iOS编程,但最终却发现相关API不适用于第三方开发人员,我想做的是iTunes Store部署无法接受。 这就是我的朋友告诉我的,但我似乎无法在应用程序开发指南中find任何相关的东西。 因此,我来​​这里问问在这方面有多less经验的人,不pipe我想做什么都是可能的。 不再。 我认为这是一个有效的高层次的问题,可以被误解为一个我没有做我的家庭作业的PLZ给我这个codez的问题。 如果我在这里的判断是错误的,可以随意删除,或者低估这个问题到你的内心的蔑视。

我在哪里可以find响应触摸的iPhone OpenGL ES示例?

我想find一个响应触摸的iPhone OpenGL ES示例。 理想情况下,它将满足这些要求: 在立方体的屏幕中央显示3D对象 将纹理映射到立方体表面 拖动手指时,应该在相机周围移动相机 应通过捏缩放相机进出相机 可选地,在包围摄像机背面的立方体后面有一个背景(例如,这可以创build立方体在空间中的效果) 有没有人看到一个或多个可以做到这些的例子,或者至less使用纹理渲染立方体?

自定义Airplaybutton的外观

我使用标准的渐变叠加(在Photoshop中完成),使button看起来更好,在我的应用程序。 我添加了一个Airplaybutton,但美观不匹配。 我真的想把它放在一个渐变层,所以它匹配,但我能find的任何东西只显示如何用PNG,而不是现有的UIView。 如果不是渐变层,我只需要以任何方式改变Apple Airplaybutton的外观,同时保持其function的完整性。 设置代码很简单: MPVolumeView *volumeView = [[MPVolumeView alloc] initWithFrame:frame]; [volumeView setShowsVolumeSlider:NO]; [bottomPanel addSubview:volumeView]; 我怎样才能得到这个匹配我的控件的外观?

在Swift中从服务器播放video文件

我正试图使用​​Swift从服务器播放video。 我已经导入了MediaPlayer框架,这里是我的代码: import UIKit import MediaPlayer class VideoViewController: UIViewController { override func viewDidLoad() { super.viewDidLoad() var url:NSURL = NSURL(string: "http://jplayer.org/video/m4v/Big_Buck_Bunny_Trailer.m4v") var moviePlayer = MPMoviePlayerController(contentURL: url) moviePlayer.view.frame = CGRect(x: 20, y: 100, width: 200, height: 150) self.view.addSubview(moviePlayer.view) moviePlayer.fullscreen = true moviePlayer.controlStyle = MPMovieControlStyle.Embedded } } 当我在模拟器中运行时,我只会得到一个黑盒子,但不pipe在哪里尝试加载video,都不会播放video。 UPDATE 这是当前的代码 var url:NSURL = NSURL(string: "http://jplayer.org/video/m4v/Big_Buck_Bunny_Trailer.m4v") var moviePlayer = […]

YouTube的videoID从URL – 目标C

我基本上有一个YouTube的url作为NSString,但我需要提取在URL中显示的videoID。 我发现许多教程如何在PHP或其他基于Web的编程语言,但没有在客观的C … 我基本上是寻找一个方法,要求一个NSStringurl作为参数,并返回videoID为另一个NSString … 任何人都知道如何做到这一点或任何教程呢?

iOS – 将联系人添加到联系人?

Heyo! 有没有办法如何当用户点击一个button,它可以添加或更新联系人到实际的苹果通讯录? 一些节日有电子邮件回复,包括一个“名片”,接收者可以下载并在他们的联系簿中find。

iOS共享与动作应用程序扩展

我想实现一个应用程序扩展,但我不能决定是否应该作为共享扩展或行动扩展实现它。 文档没有太多说明差异,只是这个: 分享(iOS和OS X) :发布到分享网站或与他人分享内容 操作(iOS和OS X; UI和非UI变体) :操纵或查看源自主机应用程序的内容 是否也有技术上的差异(例如,Action扩展是否允许我做一些Share扩展没有的function),还是仅仅是Apple希望你遵循的一个约定,以减less用户的困惑? 似乎至less有一个区别是,如果你想要一个非UI动作,你必须select一个动作而不是共享扩展。 其他的区别是什么? 我正在寻找的东西的例子: 他们是否都允许我自定义用户界面? 这两个都给我一些默认的UI使用? 他们是否有相同的权限,还是我被允许在一个和另一个之间做更多的事情? 他们都收到来自主机应用程序相同的input? 他们都可以发回相同的数据到主机应用程序?

为什么?(iOS 5.0)

UIImage在缩放时总是变得模糊。如果要保持清晰,我该怎么办? – (UIImage *)rescaleImageToSize:(CGSize)size { CGRect rect = CGRectMake(0.0, 0.0, size.width, size.height); UIGraphicsBeginImageContext(rect.size); [self drawInRect:rect]; // scales image to rect UIImage *resImage = UIGraphicsGetImageFromCurrentImageContext(); UIGraphicsEndImageContext(); return resImage; }