Tag: 像素

在sceneKit View,iOS,Swift中获取像素颜色

我尝试在sceneKit视图中获取特定像素的颜色。 不过,我只能看到我背景的颜色。 在我的场景中,我有一个带有纹理图像的球体。 有人可以帮我吗? import UIKit extension UIView { func getColourFromPoint(point:CGPoint) -> UIColor { let colorSpace:CGColorSpace = CGColorSpaceCreateDeviceRGB()! let bitmapInfo = CGBitmapInfo(rawValue: CGImageAlphaInfo.PremultipliedLast.rawValue) var pixelData:[UInt8] = [0, 0, 0, 0] let context = CGBitmapContextCreate(&pixelData, 1, 1, 8, 4, colorSpace, bitmapInfo.rawValue) CGContextTranslateCTM(context, -point.x, -point.y); self.layer.renderInContext(context!) let red:CGFloat = CGFloat(pixelData[0])/CGFloat(255.0) let green:CGFloat = CGFloat(pixelData[1])/CGFloat(255.0) let blue:CGFloat = […]

OpenGL ES像素艺术 – 缩放

我无法在iPhone上的OpenGL Es 1.1上显示基于像素的艺术(认为复古瓷砖和艺术)。 使用8个字节(每行1个字节)表示块,每个位表示一个像素是否被设置。 例如,一个数字8: 0 0 0 0 0 0 0 0 -> 0 0 1 1 1 0 0 0 -> xxx 0 1 0 0 0 1 0 0 -> xx 0 1 0 0 0 1 0 0 -> xx 0 0 1 1 1 0 0 0 -> xxx 0 […]

在屏幕上获取某种颜色占用的区域 – iOS

我试图做一些类似于这个问题的问题 ,但是我并不真正理解这个问题的答案,我不确定这是否是我需要的。 我需要的是简单的,但我不太确定这很容易。 我想计算屏幕上某个颜色的像素数量。 我知道我们看到的每个“像素”实际上是不同颜色的像素的组合,例如绿色。 所以我需要的是实际的颜色 – 用户所看到的颜色。 例如,如果我创build了一个UIView,将背景颜色设置为[UIColor greenColor] ,并将其尺寸设置为屏幕区域的一半(我们可以假定状态栏为简单起见而隐藏,而且我们在iPhone上),我希望这个“神奇的方法”返回240 * 160或38,400-屏幕的一半面积。 我不希望有人写出这个“魔法”,但我想知道 a)如果这是可能的 b)如果是这样,几乎是实时的 c)如果是这样,从哪里开始。 我听说可以用OpenGL完成,但是我没有这方面的经验。 这是我的解决scheme,感谢Radif Sharafullin: int pixelsFromImage(UIImage *inImage) { CGSize s = inImage.size; const int width = s.width; const int height = s.height; unsigned char* pixelData = malloc(width * height); int pixels = 0; CGContextRef context = CGBitmapContextCreate(pixelData, width, height, […]

如何计算UIImage的平均颜色?

我想build立一个应用程序,让用户select一个图像,并输出“平均颜色”。 例如,这个图像: 平均颜色是绿/淡黄色。 目前,我得到了这个代码: // In a UIColor extension public static func fromImage(image: UIImage) -> UIColor { var totalR: CGFloat = 0 var totalG: CGFloat = 0 var totalB: CGFloat = 0 var count: CGFloat = 0 for x in 0..<Int(image.size.width) { for y in 0..<Int(image.size.height) { count += 1 var rF: CGFloat = 0, […]

cocoa点与像素和PPI

那么,我基本上有两个关于iOS设备屏幕分辨率的问题。 1)在iOS文档中的点与像素部分,它指出坐标作为点传入框架,并且“一点不一定对应于屏幕上的一个像素”。 在这里find: https : //developer.apple.com/library/ios/#documentation/WindowsViews/Conceptual/ViewPG_iPhoneOS/WindowsandViews/WindowsandViews.html 当他们不同? 到目前为止,我假设他们是相等的,并传递像素坐标。 这是一个参数,从一个设备到另一个设备? 2)我也对PPI有点困惑。 我知道硬件屏幕上的含义(如果10“和7”显示器具有相同的像素分辨率,那么7“显示器将因为PPI更高而具有更好的图像质量),但是如果我保存一个.png与72ppi或96甚至326?它只是为了印刷或在我的屏幕上视觉上有什么不同吗? 谢谢

检测图像iOS中的黑色像素

截至目前,我正在search每一个像素1 1检查颜色,看看它是否是黑色的…如果不是我移动到下一个像素。 这是永远的,因为我只能检查约。 每秒100像素(加快我的NSTimer冻结应用程序,因为它无法检查速度不够快)所以,无论如何,我可以让Xcode返回所有黑色的像素,忽略其他所有的东西,所以我只需要检查这些像素而不是每个像素。 我正在尝试检测图像上最左边的黑色像素。 这是我目前的代码。 – (void)viewDidLoad { timer = [NSTimer scheduledTimerWithTimeInterval: 0.01 target: self selector:@selector(onTick:) userInfo: nil repeats:YES]; y1 = 0; x1 = 0; initialImage = 0; height1 = 0; width1 = 0; } -(void)onTick:(NSTimer *)timer { if (initialImage != 1) { /* IMAGE INITIALLY GETS SET HERE… "image2.image = [blah blah blah];" […]

iOS – 检测像素的颜色?

例如,假设我想用屏幕坐标(100,200)检测像素的颜色。 有没有办法做到这一点? 编辑 – 我现在不担心视网膜显示问题。

什么是iPhone中的像素和点?

从UIImage参考, 尺寸 图像的尺寸,考虑到方向。 (只读) @property(nonatomic, readonly) CGSize size 讨论 在iOS 4.0及更高版本中,此值反映图像的逻辑大小,以点为单位。 在iOS 3.x及更早版本中,此值始终反映以像素为单位测量的图像尺寸。 像素和点之间有什么区别?

iOS:从相机获取逐像素数据

我意识到AVFoundation和它的捕获支持(虽然不太熟悉)。 但是,我没有看到任何可以轻松访问的API来获取逐像素的数据(RGB-per-pixel或类似的)。 我记得在文档中读到这是可能的,但我真的不知道如何。 所以: 可以这样做吗? 如果是这样,怎么样? 我会得到原始图像数据,还是被JPEG压缩的数据?

如何获得触摸的像素颜色?

我知道这是一个常见的问题,这个问题有很多答案。 我用过这个。 虽然其中许多是相同的。 可悲的是我没有一个人为我工作。 以下代码我使用到现在。 -(void)getRGBAsFromImage:(UIImage*)image atX:(int)xx andY:(int)yy { // First get the image into your data buffer CGImageRef imageRef = [image CGImage]; NSUInteger width = CGImageGetWidth(imageRef); NSUInteger height = CGImageGetHeight(imageRef); CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB(); unsigned char *rawData = (unsigned char*) calloc(height * width * 4, sizeof(unsigned char)); NSUInteger bytesPerPixel = 4; NSUInteger bytesPerRow = […]