Tag: iPhoneiPhone

从WiFi切换到3G时出现networking错误

我的iPhone应用程序是基于networking的。它在WiFi和3G中运行正常但是问题是当我在WiFi上运行应用程序并将其最小化时,closuresWiFi并切换到3G–它不显示networking。 在用户的情况下,当他们使用WiFi下的应用程序,出去它无法连接3Gnetworking。我使用苹果的可达性类来检查networking连接任何人请告诉任何解决scheme 如果连接丢失或从WiFi切换到3G,我是否要编码重新连接?

点击特定标记如何获得标题名称

在Android中,我们可以像这样获取标记名称 如何在这里执行地图标记点击(android) 但在iOS中使用 for (NMALink* item in _resultsArray) // NMAPlaceLink { if ([item isKindOfClass:[NMAPlaceLink class]]) { [self addMarkerAtPlace:(NMAPlaceLink*)item]; } } Mutltipe标记添加到Map上 – (void)addMarkerAtPlace:(NMAPlaceLink*)placeLin { NMAImage* img = [NMAImage imageWithUIImage:[UIImage imageNamed:@“”]]; NMAMapMarker *_mapMarker = [[NMAMapMarker alloc] initWithGeoCoordinates:[placeLink position] icon:img]; [self.mapView addMapObject:_mapMarker]; } 点击特殊标记 -(void)mapView:(NMAMapView *)mapView didSelectObjects:(NSArray *)objects { NMAMapMarker *mapMarker = objects.firstObject // Unable yo get […]

在自己的iOS项目中集成Linphone

我正在用Linphone创build一个基于voip呼叫的项目,而且我还成功构build并运行了Linphone项目并成功地运行了audio和video通话。 现在我正在将Linphone整合到自己的项目中,并且面临着许多问题和问题。 我已经使用了一些以下链接寻求帮助,但是没有完整的说明。 任何人都可以为我提供完整的运行步骤, Build or Compile Linphone from Source for iPhone and iPad 将Linphone应用程序集成到我的iOS应用程序 如何将Linphone集成到现有项目(IOS中的SIP) http://www.linphone.org/technical-corner/linphone/overview 如何将Linphone集成到现有项目(IOS中的SIP) http://lists.gnu.org/archive/html/linphone-developers/2014-09/msg00109.html http://www.successmonkey.co.nz/blog/building-linphone-for-ios

使用otool反汇编默认iOS应用程序

当我尝试使用otool反汇编库存iOS应用程序(而不是应用程序商店应用程序)时,它不会被拆分为不同的方法。 这只是一个巨大的部分。 以下是我正在使用的命令: otool -tV theApp.app/theApp >~/Desktop/output.txt 有没有办法将反汇编拆分成方法?

如何从iPhonestream式video作为服务器?

我正在开发一款适用于iOS的应用程序,其中一台iPhone必须将其摄像机录制内容stream式传输到另一台iPhone(为了保持简单,两者都在同一个Wi-Finetworking中)。 stream应该没有物理互连(例如,用于将stream路由到客户端的服务器)。 实际上, 录制的iPhone应该是服务于其他iPhone(或者networking中更多的其他iOS设备)的直播stream的服务器。 所以,我需要做的是: 从相机获取现场照片 处理这些数据,如果需要 逐帧发送到连接的客户端( TCP? ) 接收客户端上的帧并实时显示它们 我有什么和我坚持什么: 我已经解决了问题1.我使用一个不断返回CMSampleBufferRef (在这里find)的AVCaptureSession 。 我不确定我需要做什么与CMSampleBufferRef 。 我知道如何将它转换为CGImage或UIImage (感谢Benjamin Loulier的博客post2 ),但我不知道具体需要发送什么,以及是否需要以某种方式对帧进行编码。 正如在上面的链接答案( this )中@jab所提到的,可以用一个或多个AVAssetWriter将这些示例写入文件。 但是他又说,这些5秒钟的video片段将被上传到一个服务器上,这个服务器可以将一个stream式传输的电影文件从电脑上传出来(然后这个电影可以通过HTTP Live Streaming式传输到iOS设备上)。 正如我已经指出,我的应用程序(即video捕捉“服务器”设备)有一个或多个客户端连接到它,并需要实时发送video帧给他们。 我想到的一个想法是使用一个简单的TCP连接,即服务器以循环的格式将每一帧以串行格式发送给连接的客户端。 更具体地说:当一个缓冲帧成功发送到客户端时,服务器将最近的帧作为下一个帧发送。 现在:这是正确的想法应该如何工作? 或者还有另外一个协议,它更适合这种任务吗? 请记住:我想保持简单(对我来说很简单,也就是说,我不需要学习太多新的编程方面)并且很快。 我已经知道TCP的一些东西了,我用C在学校写了服务器和客户端,所以我宁愿把我现在的知识应用到这个项目中。 最后但并非最不重要的是,接收客户: 我想,如果我真的要使用TCP连接,在客户端,我从服务器接收帧后,将读取的字节包转换为使用的格式( CMSampleBuffer , CGImage , UIImage ),并只显示它在CALayer或UIImageView ,对不对? 电影的效果将通过不断更新图像视图而得到。 请给我一些关于如何达到这个目标的想法。 这是非常重要的,因为它是我的学校gradle项目的一部分…任何示例代码也赞赏;-)或者只是引用我到另一个网站,教程,Stackoverflow的答案等。 如果您有任何问题,请留下评论,我会更新post。