SVD分解

SVD分解一 SVD 简介奇异值分解 SVD 是在机器学习领域广泛运用的算法 他不光可以用在降维算法中的特征值分解 还可以用于推荐系统 以及自然语言处理等领域 是很多算法的基石

大家好,欢迎来到IT知识分享网。

目录

一、SVD简介

二、特征值和特征向量

三、SVD的定义

四、求解SVD矩阵

五、求解实例

六、SVD性质

七、SVD用于PCA降维

八、SVD总结


一、SVD简介

        Singular Value Decomposition(奇异值分解,SVD)是一种重要的矩阵分解技术,可以将一个矩阵分解为三个矩阵的乘积。SVD的应用广泛,包括数据降维、矩阵逆运算、推荐系统等领域。

        其中,U和V是正交矩阵,Σ是对角矩阵。U的列向量称为左奇异向量,V的列向量称为右奇异向量。Σ的对角元素称为奇异值,通常按降序排列。在SVD中,奇异值代表原始矩阵的重要性,奇异值较大的对应的左右奇异向量所表示的特征对数据的贡献较大。

        SVD的应用中,常用到SVD的截断形式。通过保留较大的奇异值和对应的奇异向量,可以实现数据降维,提取出数据的主要特征。

        总的来说,SVD是一种强大的矩阵分解技术,可以在数据处理和分析中发挥重要作用,尤其在降维和特征提取方面。

二、特征值和特征向量

        在线性代数中,特征值和特征向量是矩阵的重要性质。对于一个n×n的方阵A,如果存在一个非零向量v和一个实数λ,满足 Av = λv,那么λ称为A的特征值,v称为对应于特征值λ的特征向量。特征向量是指在线性变换过程中,只发生拉伸或压缩,方向不发生改变的向量。特征值表示特征向量在该线性变换中的缩放比例。

特征值和特征向量的性质包括:

        1. 每个n×n矩阵至少有一个特征值和相应的特征向量(可以是复数)。

        2. 特征向量可以乘以一个非零常数而不改变关系。

        3. 特征向量对应的特征值不一定唯一,但是特征向量的方向是唯一确定的。

        4. 特征值的个数不超过矩阵的维度n。

        特征值和特征向量在多个领域有广泛应用,包括线性代数、物理学、工程学、数据分析等。在数据分析中,特征值和特征向量常用于降维、特征提取、主成分分析等任务,以帮助理解和处理数据。我们首先回顾下特征值和特征向量的定义如下:

watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA6YaJ57-B5LmL5oSP5LiN5Zyo6YWSfg==,size_8,color_FFFFFF,t_70,g_se,x_16

watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA6YaJ57-B5LmL5oSP5LiN5Zyo6YWSfg==,size_7,color_FFFFFF,t_70,g_se,x_16

        特征值分解只可以在方阵中进行处理,不能应用的非方阵中,如果我们要对非方阵进行特征分解,这是我们就要用到SVD。

三、SVD的定义

        SVD也是对矩阵进行分解,但是和特征分解不同,SVD并不要求矩阵为方阵。假设我们的矩阵A是一个m×n的矩阵,那么我们定义矩阵A的SVD为:

c87ff3d9efa749ce889621fba2553c67.png

        在SVD中,U是一个m×m的酉矩阵,Σ是一个m×n的矩阵,除了主对角线上的元素以外全为零,主对角线上的每个元素都称为奇异值,V是一个n×n的酉矩阵。酉矩阵是指其转置矩阵乘以自身得到单位矩阵,即U^TU = I,V^TV = I。下图可以很形象的看出上面SVD的定义:

watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA6YaJ57-B5LmL5oSP5LiN5Zyo6YWSfg==,size_20,color_FFFFFF,t_70,g_se,x_16

四、求解SVD矩阵

9bd11876d6604d7db2ef3d5892a0814f.png

        是的,通过对矩阵A的转置矩阵AT与A相乘得到的矩阵AT A,我们可以求解出其n个特征值和对应的n个特征向量v。将AT A的所有特征向量组成一个n×n的矩阵V,这个V矩阵即可作为SVD公式中的V。

        如果我们将A和A的转置做矩阵乘法,那么会得到m x m的一一个方阵AAT。 既然AAT是方阵,那么我们就可以进行特征分解,得到的特征值和特征向量满足下式:

b52e06e909b24a3b8a934acdc5ba9921.png

watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA6YaJ57-B5LmL5oSP5LiN5Zyo6YWSfg==,size_20,color_FFFFFF,t_70,g_se,x_16

这样我们可以求出每个奇异值,进而求出奇异矩阵。

在上述中为什么A*A.T为U矩阵,而A.T*A为V矩阵?

原因如下: 

 watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA6YaJ57-B5LmL5oSP5LiN5Zyo6YWSfg==,size_13,color_FFFFFF,t_70,g_se,x_16

五、求解实例

watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA6YaJ57-B5LmL5oSP5LiN5Zyo6YWSfg==,size_19,color_FFFFFF,t_70,g_se,x_16

 watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA6YaJ57-B5LmL5oSP5LiN5Zyo6YWSfg==,size_20,color_FFFFFF,t_70,g_se,x_16

watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA6YaJ57-B5LmL5oSP5LiN5Zyo6YWSfg==,size_20,color_FFFFFF,t_70,g_se,x_16

六、SVD性质

        对于奇异值,它跟我们特征分解中的特征值类似,在奇异值矩阵中也是按照从大到小排列,而且奇异值的减少特别的快,在很多情况下,前10%甚至1 %的奇异值的和就占了全部的奇异值之和的99%以上的比例。也就是说,我们也可以用最大的k个的奇异值和对应的左右奇异向量来近似描述矩阵。

        由于这个重要的性质,SVD可以用于PCA降维,来做数据压缩和去噪。也可以用于推荐算法,将用户和喜好对应的矩阵做特征分解,进而得到隐含的用户需求来做推荐。同时也可以用于NLP中的算法,比如潜在语义索引(LSI) 。

七、SVD用于PCA降维

        实际上SVD在PCA降维上只是使用了V矩阵(右奇异矩阵),其原因就是V矩阵(右奇异矩阵)是进行列压缩,而U矩阵(左奇异矩阵)是对行进行压缩,而PCA降维只需要减少特征从而进行降维,所以PCA只用到了SVD的V矩阵(右奇异矩阵)。具体解释可参照上文推导过程(右奇异矩阵的由来)。

八、SVD总结

        SVD作为一种基本算法,在许多机器学习算法中都扮演重要角色。特别是在大数据时代,SVD因其可并行化的特性而更加广泛应用。SVD的原理并不复杂,只需要基本的线性代数知识即可理解,实现也相对简单,因此值得仔细研究。

        然而,SVD的一个缺点是其分解出的矩阵在解释性方面较弱,有时候更像是一个黑盒子。尽管如此,这并不影响SVD在实际应用中的使用。SVD在数据处理、降维、特征提取等领域都发挥了重要作用。

        需要注意的是,在使用SVD时,我们也要考虑到其计算复杂度的问题,特别是对于大规模矩阵的处理。尽管SVD具有许多优点,但在实际应用中,我们也需要综合考虑算法的效率和性能,选择适合特定任务的算法和技术。

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://haidsoft.com/122571.html

(0)
上一篇 2025-10-15 18:45
下一篇 2025-10-15 19:10

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注微信