我想检测相机中聚焦的对象,并将未聚焦的背景剪掉并替换为图像。这可能吗?
勉强有可能,但需要一些繁重的计算。据我所知,没有现成的 iOS 库。所以如果你问,“有没有可能轻松做到这一点?”,我会回答,恐怕不会。
出现的工具通常会使用一些快捷方式,例如
我相信 Quartz 可以进行人脸识别。无论如何,请查看 Face Recognition on the iPhone .
在一般和杂乱的情况下,您通常可以通过分析图像中的对比度或空间频率来识别焦点区域(假设存在),这些区域被划分为小区域(通常为 16x16 或 8x8 像素)。那些对比度低和/或高频缺失的区域是背景,而高频(锐度)的存在则表示聚焦区域。
这不会告诉您图像边界,还会给出几个误报(可能还有负数);但在此阶段结束时,您将获得原始图像的采样,其中每个纹素的状态为“已聚焦”、“未聚焦”和“不确定”,例如 16 像素边。
您必须对这张 map 应用启发式方法,例如:
在此优化阶段结束时,您应该有一些连续的大“ Blob ”重点区域。然后检查它们的边界,寻找颜色或亮度的急剧过渡(通常在从 Blob 中心的径向方向上)。这是另一个启发式方法:我们假设您不会将红色苹果聚焦在红色背景上,或者如果您这样做,苹果将具有显示黄色、白色或非常浅红色的高光,并允许跟踪“轮廓”。
一旦每个 Blob 都有自己的轮廓,您就可以将其用作切口。
您必须使用 Core Image 等工具来完成所有这些操作
或者,更适合该任务的 vImage
关于ios - 从照片背景中检测并切出聚焦对象,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/12376745/
欢迎光临 OGeek|极客世界-中国程序员成长平台 (http://jike.in/) | Powered by Discuz! X3.4 |