Tag: 图像

从包含url的数组中添加图片到单元格的imageView – iOS Xcode对象C

只是为了更好地了解这篇文章的内容,最终会在这个问题上结束: 如何从任意数量的url中asynchronous下载预定义数量的图像,将它们添加到字典(或数组,如果更容易),以便按照下载开始的顺序添加它们,而不是按顺序添加它们他们完成了? 这是这篇文章的主要问题,但是为了好的措施,并且让我理解我的意思,我在下面的文章中join了涉及这个问题的具体案例。 我知道这很长,但解释我的情况却相当复杂。 所以,这里什么都不做: 我有一个tableView从不同的数组加载一些事情。 每次启动应用程序时,所有数组都是从JSON获取中创build的,我的想法是通过更新JSON文本文件来更新应用程序中的信息。 JSON文本文件中的一个条目包含URL的图像,我想要添加到tableView单元格的contentview。 我得到了JSON获取工作,并创build了包含来自提取信息的字典“dataDictionary”。 然后,数组创build像这样: – (void)connectionDidFinishLoading:(NSURLConnection *)connection { // Array is created from the dictionary created from the JSON fetch _dataArray = _dataDictionary[@"games"]; // Arrays that will eventually hold info from JSON file is created _Titles = [[NSMutableArray alloc] init]; _Descriptions = [[NSMutableArray alloc] init]; _Date = [[NSMutableArray alloc] […]

iOS @ 2倍拉长的图像

我有一套@ 2x的图像用于视网膜显示检测。 这在大多数图像上都可以正常工作,但是1张图像被拉长。 这个图像被添加到Interface Builder中的UIImageView中。 我知道名称是相同的(除了@ 2x部分)和文件都是相同的types(PNG)。 还有什么可能导致这个问题?

用于不同屏幕尺寸的UI的图像大小?

如果我想在使用自动布局的应用程序的iOS中设置button的背景图像,那么.png图像应该是多大? 由于button的高度和宽度总是会变化的,除了适应视网膜/非屏幕显示(@ 2x?)之外。

无法将NSData转换为图像iphone

我真的不知道为什么它不会将NSData转换为UIImage 。 NSData得到保存,但是当我debugging程序时,想象是用imageData转换时0X0000000000。 这是我的代码: NSArray *pathArr = NSSearchPathForDirectoriesInDomains(NSDocumentDirectory, NSUserDomainMask, YES); NSString *path = [[pathArr objectAtIndex:0] stringByAppendingPathComponent:@"img.data" ]; NSData * imageData = [cerereIndemnizatie.fisier dataUsingEncoding: NSUTF8StringEncoding]; [imageData writeToFile:path atomically:YES]; NSData *retrievedData = [NSData dataWithContentsOfFile:path]; UIImage * imagine = [UIImage alloc] init]; UIImage * imagine = [UIImage imageWithData:retrievedData]; 我从networking服务parsing数据的代码。 我打电话writeDataToFileSystem我按下一个button – (void)viewDidLoad { [super viewDidLoad]; NSURL * url […]

在Swift中合并2个图像,而不会丢失原始图像的大小

我试图合并2个图像,而不会丢失原始图像的大小。 我有一个大的白色图像,我想合并一个较小的图像。 如果我移动较小的图像,使其只显示在较大图像的顶部,那么当我合并这两个图像时,只有所显示图像的一半应该合并,而另一面应该被裁剪掉。 下面的图像的层次结构 UIView:剪辑子视图被选中 —->用白色图像的UIImageView —-> UIImageView:这个图像有一个平移手势,允许它在视图内移动。 我发现这篇文章迅速合并了两个不同的图像,并试图掩盖图像 let maskedImage: UIImage = self.maskImage(imageView.image!, withMask: whiteImage.image!) newImageView.image = maskedImage 但是这并不考虑图像视图中图像当前位置。 它只是返回原始图像(然后resize以适应UIIMageView,这就是为什么它比以前大一点) 有谁知道我怎么能合并这两个图像,并考虑到合并时的位置? 理想情况下,第二个图像看起来像第一个图像,除了这是一个单一的图像,而不是两个。

是否真的有必要为iOS应用程序提供所有不同的应用程序图标大小?

我很想提供最高分辨率的图标,并让iOS根据需要进行缩放。 这是一个坏主意,(如果是的话)为什么?

如何在af_setImageWithURL完成后将图像放入AutoPurgingImageCache?

我想将imageView.af_setImageWithURL imageView.af_setImageWithURL(URL)与AlamofireImage的AutoPurgingImageCache一起使用。 我怎么能通知af_setImageWithURL获取图像,所以我可以把它放到我的caching? 因为这是在后台完成的。 我喜欢这样的东西: imageView.af_imageFromCache(URL) ,如果它已经在那里设置图像从caching,否则下载asynchronous,然后设置图像并将其保存在caching中。

我如何操作Xcode中的CGImageRef中的像素值

我有一些 CGImageRef cgImage = "something" 有没有办法来操纵这个CGImage的像素值? 例如,如果这个图像包含0.0001和3000之间的值,因此当我尝试查看或释放图像在NSImageView( 如何使用CGImageRef图像在NSView中显示图像 ) 我得到一个黑色的图像,所有的像素是黑色的,我认为这是与设置像素范围值在不同的颜色映射(我不知道)。 我希望能够操纵或更改像素值,或者只能通过操纵色彩图范围来查看图像。 我已经试过,但显然这是行不通的: CGContextDrawImage(ctx, CGRectMake(0,0, CGBitmapContextGetWidth(ctx),CGBitmapContextGetHeight(ctx)),cgImage); UInt8 *data = CGBitmapContextGetData(ctx); for (**all pixel values and i++ **) { data[i] = **change to another value I want depending on the value in data[i]**; } 谢谢,

使用Sprite Kit的硬件特定地图集在iPad上被炸毁

从WWDC 2013观看503“使用Sprite Kitdevise游戏”,他们说纹理地图集的好处之一就是您只需要将文件夹拖放到XCode,并为不同设备(OSX,iPhone,iPhone)生成特定于硬件的地图集视网膜,iPad …) 那是对的吗? 我正在删除一个包含精灵animation帧的文件夹,尽pipe它在iPad 2和iPad视网膜上显示的尺寸相同,但它的尺寸是正确尺寸的两倍,当然,在iPad视网膜中图像也是像素化的。 我究竟做错了什么?

我如何编程添加TListBoxItem内的图像?

问题 很长一段时间,我使用自定义样式来加载详细的TListBox 。 它基本上是一个带有TImage作为图标的ListBox 。 不过最近我遇到了很多的错误,并决定把它扔掉。 这是我如何编程生成我的TListBox项目: // Create LISTBox Item lb_item := TListBoxItem.Create(self); lb_item.Parent := lb_awesome_list; lb_item.Text := cow_name; 如果我想添加一个Image呢? 我到目前为止所做的 我试图把它作为一个ItemData添加 lb_item.ItemData.Bitmap := iv_user_ic.Bitmap; 还有一些其他的select没有成功。 有没有可能以编程方式添加图像?