Tag: 相机

如何从iPhone摄像头使用图像Exif元数据获取对象的距离?

编辑 :对不起,晚编辑,没有两个参数,你不能计算它,所以首先需要填补用户从地面的相机高度。 我检查了一些解决scheme,但没有一个有帮助! 我知道工作距离=(传感器高度+主体高度)*焦距/传感器高度 和 distance to object (mm) = focal length (mm) * real height of the object (mm) * image height (pixels) —————————————————————- object height (pixels) * sensor height (mm) 我想从这个距离: 镜头和眼睛形成图像 你好,我使用图像Exif ALAssetsLibrary获得以下信息 我有以下元数据: Save image metadata. { DPIHeight = 72; DPIWidth = 72; FaceRegions = { Regions = { HeightAppliedTo = […]

UIImagepickercontroller:是否可以改变相机胶卷中图像的sorting顺序?

基本上,如果用户不需要滚动到相机底部滚动来获取最近的照片,我想要最新的顶部,那么这个应用程序的工作将是一个很less的痛苦,不会无论如何有意义吗? 不知道为什么苹果这样devise,或者如果我只是没有意识到什么。 谢谢 缺口

iPhone摄像头,如何避免camera preverw preivew view; 如何知道什么时候进入预览视图?

在相机工作stream程中,拍摄照片,然后在下一个屏幕上,我们将其称为“ select屏幕” ,您可以select是要使用此照片还是重新拍摄照片。 我怎么知道,当相机进入预览视图 ? 我的问题是,我已经添加了一个button来访问相机胶卷,这工作正常。 障碍在于,当拍照并进入预览视图 (2.相机视图)时,该button隐藏“使用照片”选项。 所以我不能select它。 我想在进入预览视图时隐藏button,或者只是避免预览视图 。 在我的代码下面 CamViewScreen.h #import <UIKit/UIKit.h> #import "CameraViewController.h" #import <AssetsLibrary/AssetsLibrary.h> @interface CamViewController : UIViewController <UIImagePickerControllerDelegate, UINavigationControllerDelegate> @property (nonatomic, strong) UIImage *image; @property (nonatomic, strong) UIImage *lastTakenImage; – (IBAction)takePhoto:(id)sender; – (IBAction)selectPhoto:(id)sender; @end CamViewScreen.m #import "CamViewController.h" @interface CamViewController () @end @implementation CamViewController – (id)initWithNibName:(NSString *)nibNameOrNil bundle:(NSBundle *)nibBundleOrNil { […]

iDevice相机显示黑色而不是预览

我正在开发一个应用程序,捕捉从iDevice的相机的图像,并将其上传到networking服务。 没有问题一切工作正常,除了设备的相机。 设备的相机正在让我疯狂。 我使用下面的代码来允许用户捕捉图像。 有时相机显示预览,有时不显示。 而不是预览只是在屏幕上显示完整的黑暗。 如果我从后面切换到前面,摄像头开始工作正常。 我甚至尝试从设备上删除所有的后台应用程序,并尽可能清理内存; 仍然没有运气,我卡住了。 🙁 – (IBAction)addNewImage:(id)sender { UIImagePickerController *imagePicker = [[UIImagePickerController alloc] init]; imagePicker.delegate = self; if ([UIImagePickerController isSourceTypeAvailable:UIImagePickerControllerSourceTypeCamera]) { // Take picture from camera imagePicker.sourceType = UIImagePickerControllerSourceTypeCamera; // set no to take as much pictures as user want. imagePicker.showsCameraControls = YES; // Show user the camera [self presentModalViewController:imagePicker […]

在Xcode中设置前置摄像头

在Xcode中设置前置摄像头。 我怎样才能做到这一点? 在Xcode中设置前置摄像头。 AVCaptureSession *session = [AVCaptureSession new]; if ([[UIDevice currentDevice] userInterfaceIdiom] == UIUserInterfaceIdiomPhone) [session setSessionPreset:AVCaptureSessionPreset640x480]; else [session setSessionPreset:AVCaptureSessionPresetPhoto]; AVCaptureDevice *device = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo]; AVCaptureDeviceInput *deviceInput = [AVCaptureDeviceInput deviceInputWithDevice:device error:&error]; require( error == nil, bail ); isUsingFrontFacingCamera = NO; if ( [session canAddInput:deviceInput] ) [session addInput:deviceInput]; stillImageOutput = [AVCaptureStillImageOutput new]; [stillImageOutput addObserver:self forKeyPath:@"capturingStillImage" options:NSKeyValueObservingOptionNew context:AVCaptureStillImageIsCapturingStillImageContext]; […]

如何在Xcode中创build简单的摄像头覆盖?

正如标题所说,我需要创build一个非常简单的相机覆盖,而与UIImagePickerController拍照。 我想添加非常简单的.png文件(像一个空框),但我不知道如何做到这一点。 我已经检查了这个网页上的大部分教程,但是大部分都不明白。 这对我来说似乎非常困难,并且将一个简单的.png文件添加到相机覆盖图应该比这更容易。 (IBAction) getPhoto:(id) sender { UIImagePickerController * picker = [[UIImagePickerController alloc] init]; picker.delegate = self; if((UIButton *) sender == choosePhotoBtn) { picker.sourceType = UIImagePickerControllerSourceTypeCamera; } else { } label1.text =@"PHOTO ACTION"; [self presentModalViewController:picker animated:YES]; } – (void)imagePickerController:(UIImagePickerController *)picker didFinishPickingMediaWithInfo:(NSDictionary *)info { [picker dismissModalViewControllerAnimated:YES]; imageView.image = [info objectForKey:@"UIImagePickerControllerOriginalImage"]; } 我应该在哪里实现我的覆盖代码? 我应该使用哪些课程,我该怎么做?

iOS:从前置摄像头捕捉图像

我正在制作一个应用程序,我想从前置摄像头捕捉图像,而不显示任何types的捕捉屏幕。 我想在没有任何用户交互的情况下完全在代码中拍照。 我该怎么做前置摄像头呢?

如何正确释放AVCaptureSession

我正在使用AV基础课程从摄像头捕捉实时videostream并处理video样本。 这很好。 但是,一旦完成,我确实遇到了正确释放AV基础实例(捕获会话,预览图层,input和输出)的问题。 当我不再需要会话和所有关联的对象时,我停止捕获会话并释放它。 这在大多数情况下是有效的。 但是,有时应用程序会崩溃,在调度队列创build的第二个线程(以及处理video样本的位置)中引发EXEC_BAD_ACCESS信号。 崩溃主要是由于我自己的类实例,它作为样本缓冲区委托,并在停止捕获会话后被释放。 Apple文档提到了这个问题:停止捕获会话是一个asynchronous操作。 那就是:它不会立即发生。 具体来说,第二个线程继续处理video样本并访问像捕获会话或input和输出设备的不同实例。 那么如何正确地释放AVCaptureSession和所有相关的实例呢? 是否有一个通知,可靠地告诉我,AVCaptureSession已经完成? 这是我的代码: 声明: AVCaptureSession* session; AVCaptureVideoPreviewLayer* previewLayer; UIView* view; 实例的设置: AVCaptureDevice* camera = [AVCaptureDevice defaultDeviceWithMediaType: AVMediaTypeVideo]; session = [[AVCaptureSession alloc] init]; AVCaptureDeviceInput* input = [AVCaptureDeviceInput deviceInputWithDevice: camera error: &error]; [session addInput: input]; AVCaptureVideoDataOutput* output = [[[AVCaptureVideoDataOutput alloc] init] autorelease]; [session addOutput: output]; dispatch_queue_t queue […]

Phonegap /cordova相机插件 – 如何获取照片的date/时间戳?

我有一个PhoneGap应用程序,需要让用户使用手机的相机拍照,并让用户从照片已经在设备上select。 我需要捕获照片拍摄date/时间作为元数据的一部分,但我很难找出如何使用Phonegap / Cordova来完成此项工作。 最初我以为我可以使用File API的FileEntry.getMetadata()调用,但是这不会返回修改时间属性的有效date。 我认为phonegap还会转换设备上的文件,以便您从相机插件接收的文件不是设备上的原始文件,所以即使getMetadata()调用工作,date也不是正确的。 有没有其他的解决方法,就是为我需要的每个平台编写我自己的相机插件版本? 看起来疯狂,这将是唯一的方法。

使用相机检测心率

我需要与应用程序即时心率相同的function。 基本过程要求用户: 将食指尖轻轻放在相机镜头上。 施加均匀的压力并覆盖整个镜头。 保持稳定10秒钟,并获得心率。 这可以通过打开闪光灯并在血液通过食指移动时观察光线变化来完成。 如何从video捕获获取光照水平数据? 我应该在哪里找这个? 我通过类AVCaptureDevice但没有发现任何有用的东西。 我也发现AVCaptureDeviceSubjectAreaDidChangeNotification ,会有用吗?