大家好,欢迎来到IT知识分享网。
这篇论文中设计的网络结构用于seetaface人脸识别引擎中。
作者提出了一个粗到精的自动编码网络(CFAN),级联了一些堆叠自动编码网络(SANs)。
1、初步是将检测到的整体的人脸的低分辨率版本作为输入,这样第一个SAN就能快速并足够准确的预测标志点。—全局SAN
2、余下的SAN随后通过以越来越高分辨率的方式将当前标志(先前SAN的输出)提取的局部特征作为输入进行逐步细化。–局部SAN
在局部SAN中,在每个标志周围提取SIFT特征。
采用全局特征作为首个SAN的输入可以避免平均形状带来的误差。
所有面部特征点的形状索引特征被级联在一起,以便同时更新所有面部特征点。这样即使是在部分阻塞的情况下也能保证得到一个合理有效的结果。
一般来说,已有的对齐方式可被分为基于方法[7,21,14,34,19,6] 的整体特征和基于方法[8,10,15,23,9,25,35,32,31,2,28,11] 的局部特征。
Overview of our Coarse-to-Fine Auto-encoder Networks (CFAN) for real-time
H
1
, H
2
are hidden layers. Through function
F
Φ
, the joint local features
(
S
i
) are extracted around facial landmarks of current shape
S
i
.
假设有一副d个像素的人脸图像x ∈ Rd (d上标),Sg(x) ∈ Rp (g下标,p上标)表示p个标志的真实位置。面部标志检测是学习一个从图像到面部形状的映射函数F:
F : S ← x.</
免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://haidsoft.com/150885.html