Tag: macos

我应该在OSX上使用哪个库来执行任意精度算术?

我已经尝试过GMP,MPFR。 但是我不能完成像下面这样简单的部门。 顺便说一句,我在Xcode中有LLVM编译器。 我尝试编译,运行到IOS模拟器。 mpf_t a; mpf_init2(a,256); mpf_set_d(a,0.7); mpf_t b; mpf_init2(b,256); mpf_set_d(b,1.0); mpf_t l; mpf_init2(1,256); gmp_printf(“%。* Ff \ n”,5,a); — 0.70000 gmp_printf(“%。* Ff \ n”,5,b); — 1.00000 mpf_div(l,a,b); gmp_printf(“%。* Ff”,5,l); — 0.52502

Mac上的Pywin32(com对象)

我有一个快速的问题,我希望有人能帮助我。 我正在创build/规划一个需要运行跨平台的应用程序,并使用Windows的com库。 在过去,我使用win32py在python应用程序中运行这些com对象,我一直在研究在Mac上寻找解决scheme,但是我没有运气。 理想情况下,我想留在Python中,因为我已经有Python 2.7的工作代码与这个库一起工作。 如果有其他语言的解决scheme,我想听一听。 我意识到,这听起来几乎倒退,但要长话短说,我必须使这个COM库在Mac上工作。 我将用iOS SDK模拟器做一些iOS的自动testing。

SceneKit相机,如何补偿欧拉规则(方向)的变化

也许这是一个math问题,但我希望有人能帮助我理解我将如何弥补我的相机的方向的变化。 我想要做的是能够使用类似游戏的控件来移动我的相机。 我有WSAD键设置为分别向前,向后,向左和向右移动相机。 我通过改变摄像机节点的位置vector的值来做到这一点。 我也有左右上下箭头键映射到转动和倾斜相机。 我通过调整摄像机节点的欧拉规则(俯仰和偏航)来做到这一点。 事情运作良好,直到我用左右箭头打开相机。 在按下W之后,将照相机朝向它所面向的方向移动,然后向其施加偏航。 这种行为对我来说是有道理的,但我无法弄清楚为了弥补我所应用的偏航,我需要对位置vector进行调整。 我是否需要通过新变换以某种方式乘以我的位置向量? 或者更好的是,有一些其他的财产,如枢轴,我可以改变,这样我可以保持我的位置代码相同? 感谢任何指针。 这里更新的是我正在使用的代码: public func displayTimerDidFire(timer: MyCustomDisplayTimer!) { if timer === cameraMoveTimer { var cameraTransform = cameraNode.transform var x = CGFloat(0.0) var y = CGFloat(0.0) var z = CGFloat(0.0) var step : CGFloat = 10.0 if moveUpKeyDown { y += step } if moveDownKeyDown { […]

iOS Core Audio:在kAudioFormatFlagsCanonical和kAudioFormatFlagsAudioUnitCanonical之间转换

我需要在这个格式之间转换: format.mSampleRate = 44100.0; format.mFormatID = kAudioFormatLinearPCM; format.mFormatFlags = kAudioFormatFlagsCanonical | kLinearPCMFormatFlagIsNonInterleaved; format.mBytesPerPacket = sizeof(AudioUnitSampleType); format.mFramesPerPacket = 1; format.mBytesPerFrame = sizeof(AudioUnitSampleType); format.mChannelsPerFrame = 2 ; format.mBitsPerChannel = sizeof(AudioUnitSampleType)*8; 和这种格式 format.mSampleRate = 44100.0; format.mFormatID = kAudioFormatLinearPCM; format.mFormatFlags = kAudioFormatFlagsAudioUnitCanonical; format.mBytesPerPacket = sizeof(AudioUnitSampleType); format.mFramesPerPacket = 1; format.mBytesPerFrame = sizeof(AudioUnitSampleType); format.mChannelsPerFrame = 2; format.mBitsPerChannel = sizeof(AudioUnitSampleType)*8; 在audio呈现callback的范围内有下面的代码,buffer []是第二种格式,array […]

如何在iOS的自动布局中设置视图的dynamic宽度和高度?

我有一个UIView在我的超级view.I已经设置了一些约束。现在我想在不同的devices.If视图的大小应该是不同的。如果我设置固定宽度和高度,然后我得到了错误的结果。我曾尝试用户长宽比,但是在多个设备上看起来太大或太小。 我希望高度和宽度应该以相同的比例增加,它必须看起来相同的所有devices.I要灵活的高度和宽度的view.Please告诉如何做到这一点? 这是图像 提前致谢

UIColor比较

给定一个UIColor,我需要确定它是“光”还是“黑”。 如果我可以访问颜色的hex值,我可以检查它是否大于或小于一定的阈值hex数,但似乎没有办法做到这一点。 在那儿? 或者有另一种方法可以检查UIColor的亮度值吗?

单身VS VS静态(类)variables

Swift中的最佳实践是什么? 选项1: class SomeManager { static var sharedManager = SomeManager() var someVariable: String? } 接着 let something = SomeManager.sharedManager().someVariable 选项2: class SomeManager { static var someVariable: String? } 接着 let something = SomeManager.someVariable

我们应该使用哪一个CGImageAlphaInfo?

Quartz 2D编程指南定义了各种alpha存储模式的可用性: 我们应该使用哪些RGB上下文, 为什么 ? 对于不透明的上下文, kCGImageAlphaPremultipliedFirst或kCGImageAlphaPremultipliedLast ? 对于不透明的上下文, kCGImageAlphaNoneSkipFirst或kCGImageAlphaNoneSkipLast ? 价值的select是否影响绩效? 通常,我看到kCGImageAlphaPremultipliedFirst用于不透明,而kCGImageAlphaNoneSkipFirst用于不透明的上下文。 有些人表示这些performance更好,但我还没有看到有关这方面的任何确凿的证据或文件。 快速的GitHubsearch显示,开发者倾向于通过kCGImageAlphaPremultipliedFirst在kCGImageAlphaPremultipliedLast和kCGImageAlphaNoneSkipLast上执行kCGImageAlphaNoneSkipFirst 。 可悲的是,这仅仅是一个轶事证据。

更新后无法使用cocoapods

我更新了我的Mac OSX 10.9.5上的Ruby,Gems和Cocoapods,更新后我无法执行命令 pod install 我从terminal得到下面的错误 /Library/Ruby/Gems/2.0.0/gems/cocoapods-0.34.2/lib/cocoapods/user_interface/error_report.rb:13:in `report': incompatible character encodings: UTF-8 and ASCII-8BIT (Encoding::CompatibilityError) from /Library/Ruby/Gems/2.0.0/gems/cocoapods-0.34.2/lib/cocoapods/command.rb:61:in `report_error' from /Library/Ruby/Gems/2.0.0/gems/claide-0.7.0/lib/claide/command.rb:300:in `handle_exception' from /Library/Ruby/Gems/2.0.0/gems/claide-0.7.0/lib/claide/command.rb:274:in `rescue in run' from /Library/Ruby/Gems/2.0.0/gems/claide-0.7.0/lib/claide/command.rb:264:in `run' from /Library/Ruby/Gems/2.0.0/gems/cocoapods-0.34.2/lib/cocoapods/command.rb:48:in `run' from /Library/Ruby/Gems/2.0.0/gems/cocoapods-0.34.2/bin/pod:33:in `<top (required)>' from /usr/bin/pod:23:in `load' from /usr/bin/pod:23:in `<main>' 我用下面的内容创build了一个Podfile platform :ios, '7.1' pod 'AFNetworking', '~> 1.3.3' 更新之前Cocoapods工作完美。 任何帮助是极大的赞赏。

iOS到Mac GraphicContext解释/转换

我已经在iOS上编程了两年,从来没有在Mac上编程。 我正在处理一些小工具,用于处理iOS开发中的一些简单的图像需求。 无论如何,我有在iOS的工作代码运行完美,但我绝对不知道是什么等同于Mac。 我已经尝试了一堆不同的东西,但我真的不明白如何在“drawRect:”方法之外的Mac上启动graphics上下文。 在iPhone上,我只是使用UIGraphicsBeghinImageContext()。 我知道其他职位已经说过使用lockFocus / unlockFocus,但我不知道如何做到这一点为我的需要工作。 哦,我真的很想念UIImage的“CGImage”属性。 我不明白为什么NSImage不能有一个,虽然听起来有点棘手。 这里是我在iOS上的工作代码 – 基本上它只是从掩码中创build一个reflection的图像,并将它们组合在一起: UIImage *mask = [UIImage imageWithContentsOfFile:[[NSBundle mainBundle]pathForResource:@"Mask_Image.jpg" ofType:nil]]; UIImage *image = [UIImage imageNamed::@"Test_Image1.jpg"]; UIGraphicsBeginImageContextWithOptions(mask.size, NO, [[UIScreen mainScreen]scale]); CGContextRef ctx = UIGraphicsGetCurrentContext(); CGContextTranslateCTM(ctx, 0.0, mask.size.height); CGContextScaleCTM(ctx, 1.f, -1.f); [image drawInRect:CGRectMake(0.f, -mask.size.height, image.size.width, image.size.height)]; UIImage *flippedImage = UIGraphicsGetImageFromCurrentImageContext(); UIGraphicsEndImageContext(); CGImageRef maskRef = mask.CGImage; CGImageRef maskCreate […]