Tag: 面部检测

Google脸部检测在转换为图像并尝试检测脸部时会崩溃

我正在创build一个带有滤镜的自定义相机。 当我添加下面的行时,它崩溃而不显示任何exception。 //设置video输出 func setupBuffer() { videoBuffer = AVCaptureVideoDataOutput() videoBuffer?.alwaysDiscardsLateVideoFrames = true videoBuffer?.videoSettings = [(kCVPixelBufferPixelFormatTypeKey as NSString): NSNumber(value: kCVPixelFormatType_32RGBA)] videoBuffer?.setSampleBufferDelegate(self, queue: DispatchQueue.main) captureSession?.addOutput(videoBuffer) } public func captureOutput(_ captureOutput: AVCaptureOutput!, didOutputSampleBuffer sampleBuffer: CMSampleBuffer!, from connection: AVCaptureConnection!) { if connection.videoOrientation != .portrait { connection.videoOrientation = .portrait } guard let image = GMVUtility.sampleBufferTo32RGBA(sampleBuffer) else { print("No Image 😂") […]

UIImagePickerController禁用iPhone 4S人脸检测(iOS 5.1)

我目前正在开发一个iPhone应用程序,使用自定义覆盖的UIImagePickerController拍照。 不幸的是,我没有直接访问iPhone 4S,但几个testing人员报告说,相机采集器正在像这样绘制一个绿色的边框周围: http : //cdn.iphonehacks.com/wp-content/uploads/2012/03 /camera_faces.jpg 由于这个应用程序的性质,这是不可取的。 UIImagePickerController文档的全面search没有任何东西,类似地,我在这里可以find关于人脸检测的所有内容都提供了如何使用CIDetector或类似的指令。 如何禁用我的UIImagePickerController中的脸部检测? 这是我的UIImagePickerController的初始化代码: UIImagePickerController *cameraPicker = [[UIImagePickerController alloc] init]; [cameraPicker setSourceType:UIImagePickerControllerSourceTypeCamera]; [cameraPicker setCameraDevice:UIImagePickerControllerCameraDeviceRear]; if ([UIImagePickerController isFlashAvailableForCameraDevice:cameraPicker.cameraDevice]){ [cameraPicker setCameraFlashMode:UIImagePickerControllerCameraFlashModeOn]; } [cameraPicker setShowsCameraControls:NO]; [cameraPicker setCameraOverlayView:cameraOverlayView]; cameraPicker.delegate = self; [self presentModalViewController:cameraPicker animated:YES];

人脸检测问题使用CIDetector

我正在研究一个应用程序,我必须检测左眼,右眼和嘴巴位置。 我有一个imageView我self.view和imageView包含一个人脸图像,现在我想要得到双眼和嘴巴坐标。 我已经看到了2-3个示例代码,但所有的代码都大致相同,我们必须将我的视图反转为匹配我不想要的坐标,因为我的视图有一些其他控件。 还有一件事他们都在使用 UIImageView *imageView = [[UIImageView alloc]initWithImage:[UIImage imageNamed:@"image.png"]]; 但我的imageView有框架,我不能初步与图像。 当我这样做时,我发现faceFeature的眼睛和嘴巴坐标错误。 我已经从这个示例代码开始我的代码,但是在这个视图中正在反转它的Y坐标。 任何人都可以帮助我如何检测UIImageView的图像上的脸部的眼睛和嘴巴的位置,而不会颠倒我的self.view。 让我知道如果我的问题不够清楚。 任何帮助将不胜感激,提前致谢!

正确使用CIDetectorTracking

苹果最近给CIDetector类添加了一个新的常量,名为CIDetectorTracking ,它似乎能够跟踪video中帧之间的面孔。 如果我能弄清楚它是如何工作的话,这将对我非常有利。 我试过把这个键添加到检测器选项字典使用每个对象,我可以认为是远程相关的,包括,我的AVCaptureStillImageOutput实例,我工作的UIImage,YES,1等 NSDictionary *detectorOptions = [[NSDictionary alloc] initWithObjectsAndKeys:CIDetectorAccuracyHigh, CIDetectorAccuracy,myAVCaptureStillImageOutput,CIDetectorTracking, nil]; 但是无论我尝试传递什么参数,它要么崩溃(显然我在这里猜测)或debugging器的输出: 未知的CIDetectorTracking指定。 忽略。 通常情况下,我不会猜测,但这个话题的资源几乎不存在。 苹果的类参考指出: 用于启用或禁用探测器的人脸跟踪的键。 当您想要跟踪video中的帧时,使用此选项。 除了可用性是iOS 6+和OS X 10.8+就是这样。 CIDetector.h里面的CIDetector.h : / *用于指定特征跟踪的选项字典中的键应该被使用。 * / 如果这还不够糟糕的话, Googlesearch提供了7个结果(当他们发现这个post的时候是8个),所有这些结果都是苹果类引用,API差异,一个SOpost,询问如何在iOS 5中实现这一点,或者第三方副本的前者。 所有这一切,正确的使用CIDetectorTracking任何提示或技巧将不胜感激!