学习笔记:Coarse-to-Fine Auto-Encoder Networks (CFAN) for Real-Time Face Alignment

学习笔记:Coarse-to-Fine Auto-Encoder Networks (CFAN) for Real-Time Face Alignment这篇论文中设计的网络结构用于 seetaface 人脸识别引擎中

大家好,欢迎来到IT知识分享网。

这篇论文中设计的网络结构用于seetaface人脸识别引擎中。

作者提出了一个粗到精的自动编码网络(CFAN),级联了一些堆叠自动编码网络(SANs)。

1、初步是将检测到的整体的人脸的低分辨率版本作为输入,这样第一个SAN就能快速并足够准确的预测标志点。—全局SAN

2、余下的SAN随后通过以越来越高分辨率的方式将当前标志(先前SAN的输出)提取的局部特征作为输入进行逐步细化。–局部SAN

在局部SAN中,在每个标志周围提取SIFT特征。

采用全局特征作为首个SAN的输入可以避免平均形状带来的误差。

所有面部特征点的形状索引特征被级联在一起,以便同时更新所有面部特征点。这样即使是在部分阻塞的情况下也能保证得到一个合理有效的结果。

一般来说,已有的对齐方式可被分为基于方法[7,21,14,34,19,6] 的整体特征和基于方法[8,10,15,23,9,25,35,32,31,2,28,11] 的局部特征。



学习笔记:Coarse-to-Fine Auto-Encoder Networks (CFAN) for Real-Time Face Alignment

Fig. 1.
Overview of our Coarse-to-Fine Auto-encoder Networks (CFAN) for real-time

face alignment.
H
1
, H
2
are hidden layers. Through function
F
Φ
, the joint local features

Φ
(
S
i
) are extracted around facial landmarks of current shape
S
i
.

通过使用这种渐进式和分辨率可变的策略,每个SAN的搜索空间,或换句话说,每个SAN的任务难度得到很好的控制,因此更易于处理。

在使用Intel i7-3770(3.4 GHz CPU)的台式机上,作者的方法(在Matlab代码中)每个图像大约需要23毫秒,以预测68个脸部检测时间。

假设有一副d个像素的人脸图像x Rd (d上标),Sg(x) Rp (g下标,p上标)表示p个标志的真实位置。面部标志检测是学习一个从图像到面部形状的映射函数F:

   F : S x.</

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://haidsoft.com/150885.html

(0)
上一篇 2025-03-16 17:26
下一篇 2025-03-16 17:33

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注微信