如何理解矩阵特征值?

李浩 
,FPA蓝色 / EE。
知乎用户、Tavion Fu雄哼哼 
等人赞同 补充:答主现在用到的多数是对称矩阵或酉矩阵的情况,有思维定势了,写了半天才发现主要讲的是对称矩阵,这答案就当科普用了。特征值在很多领域应该都有自己的用途,它的物理意义到了本科高年级或者研究生阶段涉及到具体问题的时候就容易理解了,刚学线性代数的话,确实抽象。

——————————————————以下为正文——————————————————

从线性空间的角度看,在一个定义了内积的线性空间里,对一个N阶
对称方阵进行特征分解,就是产生了该空间的N个标准正交基,然后把矩阵投影到这N个基上。N个特征向量就是N个标准正交基,而特征值的模则代表矩阵在每个基上的投影长度。

特征值越大,说明矩阵在对应的特征向量上的方差越大,功率越大,信息量越多。

应用到最优化中,意思就是对于R的二次型,自变量在这个方向上变化的时候,对函数值的影响最大,也就是该方向上的方向导数最大。

应用到数据挖掘中,意思就是最大特征值对应的特征向量方向上包含最多的信息量,如果某几个特征值很小,说明这几个方向信息量很小,可以用来降维,也就是删除小特征值对应方向的数据,只保留大特征值方向对应的数据,这样做以后数据量减小,但有用信息量变化不大。

——————————————————举两个栗子——————————————————

应用1 二次型最优化问题

二次型
《如何理解矩阵特征值?》,其中R是已知的二阶矩阵,R=[1,0.5;0.5,1],x是二维列向量,x=[x1;x2],求y的最小值。

求解很简单,讲一下这个问题与特征值的关系。

对R特征分解,特征向量是[-0.7071;0.7071]和[0.7071;0.7071],对应的特征值分别是0.5和1.5。

然后把y的等高线图画一下

《如何理解矩阵特征值?》从图中看,函数值变化最快的方向,也就是曲面最陡峭的方向,归一化以后是[0.7071;0.7071],嗯哼,这恰好是矩阵R的一个特征值,而且它对应的特征向量是最大的。因为这个问题是二阶的,只有两个特征向量,所以另一个特征向量方向就是曲面最平滑的方向。这一点在分析最优化算法收敛性能的时候需要用到。

二阶问题比较直观,当R阶数升高时,也是一样的道理。

应用2 数据降维

兴趣不大的可以跳过问题,直接看后面降维方法。

机器学习中的分类问题,给出178个葡萄酒样本,每个样本含有13个参数,比如酒精度、酸度、镁含量等,这些样本属于3个不同种类的葡萄酒。任务是提取3种葡萄酒的特征,以便下一次给出一个新的葡萄酒样本的时候,能根据已有数据判断出新样本是哪一种葡萄酒。

问题详细描述:
UCI Machine Learning Repository: Wine Data Set

训练样本数据:
http://archive.ics.uci.edu/ml/machine-learning-databases/wine/wine.data

原数据有13维,但这之中含有冗余,减少数据量最直接的方法就是降维。

做法:把数据集赋给一个178行13列的矩阵R,它的协方差矩阵
《如何理解矩阵特征值?》,C是13行13列的矩阵,对C进行特征分解,对角化
《如何理解矩阵特征值?》,其中U是特征向量组成的矩阵,D是特征之组成的对角矩阵,并按由大到小排列。然后,另
《如何理解矩阵特征值?》,就实现了数据集在特征向量这组正交基上的投影。嗯,重点来了,R’中的数据列是按照对应特征值的大小排列的,后面的列对应小特征值,去掉以后对整个数据集的影响比较小。比如,现在我们直接去掉后面的7列,只保留前6列,就完成了降维。这个降维方法叫PCA(Principal Component Analysis)。

下面看结果:

《如何理解矩阵特征值?》这是不降维时候的分类错误率。
《如何理解矩阵特征值?》

这是降维以后的分类错误率。

结论:降维以后分类错误率与不降维的方法相差无几,但需要处理的数据量减小了一半(不降维需要处理13维,降维后只需要处理6维)。

编辑于 2013-10-31 
90 条评论 
感谢 

分享  
收藏 
 
没有帮助 
 
举报 
 
禁止转载



81
赞同

反对,不会显示你的姓名
《如何理解矩阵特征值?》
未知 
,EE狗一条……
知乎用户、Jerry Zhang张序 
等人赞同

特征值不仅仅是数学上的一个定义或是工具,特征值是有具体含义的,是完全看得见摸得着的。

1. 比如说一个三维矩阵,理解成线性变换,作用在一个球体上:

三个特征值决定了 对球体在三个维度上的拉伸/压缩,把球体塑造成一个橄榄球;

剩下的部分决定了这个橄榄球在三维空间里面怎么旋转。

2. 对于一个微分方程:

《如何理解矩阵特征值?》

将系数提取出来

《如何理解矩阵特征值?》

对角化:

《如何理解矩阵特征值?》

其中

《如何理解矩阵特征值?》

由于

《如何理解矩阵特征值?》

定义

《如何理解矩阵特征值?》

于是有

《如何理解矩阵特征值?》

因此y的变化率与特征值息息相关:

《如何理解矩阵特征值?》

再将y由Q变换回x,我们就能得出x在不同时间的值。x的增长速度就是特征值λ,Q用来把x旋转成y。


发布于 2013-10-25 
12 条评论 
感谢 

分享  
收藏 
 
没有帮助 
 
举报 
 
作者保留权利



48
赞同

反对,不会显示你的姓名
《如何理解矩阵特征值?》
Duanex 
,电气工程,科幻迷
张序徐小飞polehui 
等人赞同 前面的回答比较专业化,而且好像没说特征值是虚数的情况,并不是只有特征向量的伸缩。作为工科线代水平,我说下自己的理解。

矩阵特征值是对特征向量进行伸缩和旋转程度的度量,实数是只进行伸缩,虚数是只进行旋转,复数就是有伸缩有旋转。其实最重要的是特征向量,从它的定义可以看出来,
特征向量是在矩阵变换下只进行“规则”变换的向量,这个“规则”就是特征值。推荐教材linear algebra and its application

编辑于 2014-05-23 
16 条评论 
感谢 

分享  
收藏 
 
没有帮助 
 
举报 
 
作者保留权利


21
赞同

反对,不会显示你的姓名
《如何理解矩阵特征值?》
燕南 
,物理学博士、愛好应用数学、读过一些纯数…
呵呵清清清知乎用户、AttufliX 
等人赞同 特徵向量反映了線性變換的方向,在這幾個方向上線性變換只導致伸縮,沒有旋轉;特徵值反映線性變換在這幾個方向上導致的伸縮的大小。

编辑于 2014-05-04 
1 条评论 
感谢 

分享  
收藏 
 
没有帮助 
 
举报 
 
作者保留权利


49
赞同

反对,不会显示你的姓名
《如何理解矩阵特征值?》
阿狸
crystal·jiangTavion Fu张序 
等人赞同

—————————————–

详细信息参看《神奇的矩阵》

—-这是打广告的分割线———

想要理解特征值,首先要理解矩阵相似。什么是矩阵相似呢?从定义角度就是:存在可逆矩阵P满足B=
《如何理解矩阵特征值?》则我们说A和B是相似的。让我们来回顾一下之前得出的重要结论:对于同一个线性空间,可以用两组不同的基
《如何理解矩阵特征值?》和基
《如何理解矩阵特征值?》来描述,他们之间的过渡关系是这样的:
《如何理解矩阵特征值?》,而对应坐标之间的过渡关系是这样的:
《如何理解矩阵特征值?》。其中P是可逆矩阵,可逆的意义是我们能变换过去也要能变换回来,这一点很重要。

我们知道,对于一个线性变换,只要你选定一组基,那么就可以用一个矩阵T1来描述这个线性变换。换一组基,就得到另一个不同的矩阵T2(之所以会不同,是因为选定了不同的基,也就是选定了不同的坐标系)。所有这些矩阵都是这同一个线性变换的描述,但又都不是线性变换本身。具体来说,有一个线性变换《如何理解矩阵特征值?》,我们选择基《如何理解矩阵特征值?》来描述,对应矩阵是T1;同样的道理,我们选择基《如何理解矩阵特征值?》来描述《如何理解矩阵特征值?》,,对应矩阵是T2;我们知道基《如何理解矩阵特征值?》和基《如何理解矩阵特征值?》是有联系的,那么他们之间的变换T1T2有没有联系呢?

当然有,T1T2就是相似的关系,具体的请看下图:

《如何理解矩阵特征值?》

没错,所谓相似矩阵,就是同一个线性变换的不同基的描述矩阵。这就是相似变换的几何意义。

这个发现太重要了。原来一族相似矩阵都是同一个线性变换的描述啊!难怪这么重要!工科研究生课程中有矩阵论、矩阵分析等课程,其中讲了各种各样的相似变换,比如什么相似标准型,对角化之类的内容,都要求变换以后得到的那个矩阵与先前的那个矩阵式相似的,为什么这么要求?因为只有这样要求,才能保证变换前后的两个矩阵是描述同一个线性变换的。就像信号处理(积分变换)中将信号(函数)进行拉氏变换,在复数域处理完了之后又进行拉式反变换,回到实数域一样。信号处理中是主要是为了将复杂的卷积运算变成乘法运算。其实这样的变换还有好多,有兴趣可以看积分变换的教材。

为什么这样做呢?矩阵的相似变换可以把一个比较丑的矩阵变成一个比较美的矩阵,而保证这两个矩阵都是描述了同一个线性变换。至于什么样的矩阵是“美”的,什么样的是“丑”的,我们说对角阵是美的。在线性代数中,我们会看到,如果把复杂的矩阵变换成对角矩阵,作用完了之后再变换回来,这种转换很有用处,比如求解矩阵的n次幂!而学了矩阵论之后你会发现,矩阵的n次幂是工程中非常常见的运算。这里顺便说一句,将矩阵对角化在控制工程和机械振动领域具有将复杂方程解耦的妙用!
总而言之,相似变换是为了简化计算!

从另一个角度理解矩阵就是:矩阵主对角线上的元素表示自身和自身的关系,其他位置的元素aij表示i位置和j位置元素之间的相互关系。那么好,特征值问题其实就是选取了一组很好的基,就把矩阵 i位置和j位置元素之间的相互关系消除了。而且因为是相似变换,并没有改变矩阵本身的特性。因此矩阵对角化才如此的重要!

特征向量的引入是为了选取一组很好的基。空间中因为有了矩阵,才有了坐标的优劣。对角化的过程,实质上就是找特征向量的过程。如果一个矩阵在复数域不能对角化,我们还有办法把它化成比较优美的形式——Jordan标准型。高等代数理论已经证明:一个方阵在复数域一定可以化成Jordan标准型。这一点有兴趣的同学可以看一下高等代数后或者矩阵论。

特征值英文名eigen value。“特征”一词译自德语的eigen,由希尔伯特在1904年首先在这个意义下使用(赫尔曼·冯·亥姆霍兹在更早的时候也在类似意义下使用过这一概念)。eigen一词可翻译为“自身的”,“特定于…的”,“有特征的”或者“个体的”—这强调了特征值对于定义特定的变换上是很重要的。它还有好多名字,比如谱,本征值。为什么会有这么多名字呢?

原因就在于他们应用的领域不同,中国人为了区分,给特不同的名字。你看英文文献就会发现,他们的名字都是同一个。当然,特征值的思想不仅仅局限于线性代数,它还延伸到其他领域。在数学物理方程的研究领域,我们就把特征值称为本征值。如在求解薛定谔波动方程时,在波函数满足单值、有限、连续性和归一化条件下,势场中运动粒子的总能量(正)所必须取的特定值,这些值就是正的本征值。

前面我们讨论特征值问题面对的都是有限维度的特征向量,下面我们来看看特征值对应的特征向量都是无限维函数的例子。这时候的特征向量我们称为特征函数,或者本证函数。这还要从你熟悉的微分方程说起。方程本质是一种约束,微分方程就是在世界上各种各样的函数中,约束出一类函数。对于一阶微分方程

《如何理解矩阵特征值?》

我们发现如果我将变量y用括号[]包围起来,微分运算的结构和线性代数中特征值特征向量的结构,即《如何理解矩阵特征值?》《如何理解矩阵特征值?》竟是如此相似。这就是一个求解特征向量的问题啊!只不过“特征向量”变成函数!我们知道只有《如何理解矩阵特征值?》满足这个式子。这里出现了神奇的数e,一杯开水放在室内,它温度的下降是指数形式的;听说过放射性元素的原子核发生衰变么?随着放射的不断进行,放射强度将按指数曲线下降;化学反应的进程也可以用指数函数描述……类似的现象还有好多。

为什么选择指数函数而不选择其他函数,因为指数函数是特征函数。为什么指数函数是特征?我们从线性代数的特征向量的角度来解释。这已经很明显了《如何理解矩阵特征值?》就是“特征向量”。于是,很自然的将线性代数的理论应用到线性微分方程中。那么指数函数就是微分方程(实际物理系统)的特征向量。用特征向量作为基表示的矩阵最为简洁。就像你把一个方阵经过相似对角化变换,耦合的矩阵就变成不耦合的对角阵一样。在机械振动里面所说的模态空间也是同样的道理。如果你恰巧学过振动分析一类的课程,也可以来和我交流。

同理,用特征函数解的方程也是最简洁的,不信你用级数的方法解方程,你会发现方程的解有无穷多项。解一些其他方程的时候(比如贝塞尔方程)我们目前没有找到特征函数,于是退而求其次才选择级数求解,至少级数具有完备性。实数的特征值代表能量的耗散或者扩散,比如空间中热量的传导、化学反应的扩散、放射性元素的衰变等。虚数的特征值(对应三角函数)代表能量的无损耗交换,比如空间中的电磁波传递、振动信号的动能势能等。复数的特征值代表既有交换又有耗散的过程,实际过程一般都是这样的。复特征值在电路领域以及振动领域将发挥重要的作用,可以说,没有复数,就没有现代的电气化时代!

对于二阶微分方程方程,它的解都是指数形式或者复指数形式。可以通过欧拉公式将其写成三角函数的形式。复特征值体现最多的地方是在二阶系统,别小看这个方程,整本自动控制原理都在讲它,整个振动分析课程也在讲它、还有好多课程的基础都是以这个微分方程为基础,这里我就不详细说了,有兴趣可以学习先关课程。说了这么多只是想向你传达一个思想,就是复指数函数式系统的特征向量!

如果将二阶微分方程转化成状态空间《如何理解矩阵特征值?》的形式(具体转化方法见现代控制理论,很简单的)

。则一个二阶线性微分方程就变成一个微分方程组的形式这时就出现了矩阵A,矩阵可以用来描述一个系统:如果是振动问题,矩阵A的特征值是虚数,对应系统的固有频率,也就是我们常说的,特征值代表振动的谱。如果含有耗散过程,特征值是负实数,对应指数衰减;特征值是正实数,对应指数发散过程,这时是不稳定的,说明系统极容易崩溃,如何抑制这种发散就是控制科学研究的内容。

提到振动的谱,突然想到了这个经典的例子:美国数学家斯特让(G..Strang)在其经典教材《线性代数及其应用》中这样介绍了特征值作为频率的物理意义,他说:”大概最简单的例子(我从不相信其真实性,虽然据说1831年有一桥梁毁于此因)是一对士兵通过桥梁的例子。传统上,他们要停止齐步前进而要散步通过。这个理由是因为他们可能以等于桥的特征值之一的频率齐步行进,从而将发生共振。就像孩子的秋千那样,你一旦注意到一个秋千的频率,和此频率相配,你就使频率荡得更高。一个工程师总是试图使他的桥梁或他的火箭的自然频率远离风的频率或液体燃料的频率;而在另一种极端情况,一个证券经纪人则尽毕生精力于努力到达市场的自然频率线。特征值是几乎任何一个动力系统的最重要的特征。”

《如何理解矩阵特征值?》

对于一个线性系统,总可以把高阶的方程转化成一个方程组描述,这被称为状态空间描述。因此,他们之间是等价的。特征值还有好多用处,原因不在特征值本身,而在于特征值问题和你的物理现象有着某种一致的对应关系。学习特征值问题告诉你一种解决问题的方法:寻找事物的特征,然后特征分解。


编辑于 2016-02-08 
13 条评论 
感谢 

分享  
收藏 
 
没有帮助 
 
举报 
 
作者保留权利



173
赞同

反对,不会显示你的姓名
《如何理解矩阵特征值?》
郑梓豪 
,CS224d 学习中…
张序啦啦知乎用户 
等人赞同 
 收录于 编辑推荐 各位知友在点赞同之前请看一下评论区。这个例子有待讨论。

———–

我举一个直观一点的例子吧…我也喜欢数学的直观之美。

我们知道,一张图像的像素(如:320 x 320)到了计算机里面事实上就是320×320的矩阵,每一个元素都代表这个像素点的颜色..

如果我们把基于特征值的应用,如PCA、向量奇异值分解SVD这种东西放到图像处理上,大概就可以提供一个看得到的、直观的感受。关于SVD的文章可以参考LeftNotEasy的文章:
机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用

简单的说,SVD的效果就是..用一个规模更小的矩阵去近似原矩阵…

《如何理解矩阵特征值?》

这里A就是代表图像的原矩阵..其中的
《如何理解矩阵特征值?》尤其值得关注,它是由A的特征值
从大到小放到对角线上的..也就是说,我们可以选择其中的某些具有“代表性”的特征值去近似原矩阵!

左边的是原始图片

《如何理解矩阵特征值?》当我把特征值的数量减少几个的时候…后面的图像变“模糊”了..

《如何理解矩阵特征值?》同样地…

《如何理解矩阵特征值?》

关键的地方来了!如果我们只看到这里的模糊..而没有看到计算机(或者说数学)对于人脸的描述,那就太可惜了…我们看到,不论如何模糊,脸部的关键部位(我们人类认为的关键部位)——五官并没有变化太多…这能否说:数学揭示了世界的奥秘?

编辑于 2014-05-05 
30 条评论 
感谢 

分享  
收藏 
 
没有帮助 
 
举报 
 
作者保留权利



31
赞同

反对,不会显示你的姓名
《如何理解矩阵特征值?》
黄培浩 
,程序员
董笙啊啊鸟人啊啊蒋淡宁 
等人赞同 作为一个线性代数考60+的学渣,我是这么直观地理解的:

《如何理解矩阵特征值?》 把式子中的
《如何理解矩阵特征值?》看作一个线性变换,那么这个定义式就表示对于 向量
《如何理解矩阵特征值?》而言,经过
《如何理解矩阵特征值?》变换之后该向量的方向没有变化(可能会反向),而只是长度变化了(乘以 
《如何理解矩阵特征值?》)。

也就是对于变换
《如何理解矩阵特征值?》来说,存在一些“不变”的量(比如特征向量
《如何理解矩阵特征值?》的方向),
我想,“特征”的含义就是“不变”

而特征值
《如何理解矩阵特征值?》,如你所见,就是变换 
《如何理解矩阵特征值?》 在特征方向上的伸展系数吧(乱诹了个名词 :P)。

嗯,觉得维基其实讲的就挺好的:
https://zh.wikipedia.org/wiki/%E7%89%B9%E5%BE%81%E5%90%91%E9%87%8F

编辑于 2014-03-30 
3 条评论 
感谢 

分享  
收藏 
 
没有帮助 
 
举报 
 
作者保留权利


22
赞同

反对,不会显示你的姓名
《如何理解矩阵特征值?》
江磊 
,大众点评码农
陈茜Xenophon Tony刘嘉禾 
等人赞同 站在线性变换的角度来看矩阵的话。

矩阵(线性变换)作用在一个向量上无非是将该向量伸缩(包括反向伸缩)与旋转。

忽略复杂的旋转变换,只考虑各个方向(特征方向)伸缩的比例,所提取出的最有用,最关键的信息就是特征值了。

编辑于 2013-10-24 
8 条评论 
感谢 

分享  
收藏 
 
没有帮助 
 
举报 
 
作者保留权利


32
赞同

反对,不会显示你的姓名
《如何理解矩阵特征值?》
Gilbert 
,you know nothing
deyi wang张荣真yaoxinliu 
等人赞同 定义很抽象我也一直搞不懂,但是最近开始在图像处理方面具体应用的时候就清晰很多了,用学渣的语言沟通一下吧我们。

抛开学术研究不谈,其实根本不会,特征值eigenvalue和特征向量eigenvector的一大应用是用于大量
数据的降维

比如拿淘宝举个例子,每个淘宝店铺有N个统计数据:商品类型,日销量周销量月销量、好评率中评差评率……全淘宝有M家店铺,那么服务器需要记录的数据就是M*N的矩阵;

这是一个很大的数据,实际上我们可以通过求这个矩阵的特征向量和对应的特征值来重新表示这个M*N的矩阵:

我们可以用周销量来误差不大的表示日销量和月销量(除以七和乘以四),这个时候周销量就可以当作一个特征向量,它能够表示每个店铺销量这个空间方向的主要能量(也就是数据),这样我们就简略的把一个35维的向量简化成四维的(30个日销量加4个周销量加1个月销量);

同理我们也可以把好评率中评率差评率用一个好评率来表示(剩余的百分比默认为差评率),这样的降维大致上也能反映一个店铺的诚信度;

这样通过不断的降维我们可以提取到某系列数据最主要的几个特征向量(对应特征值最大的),这些向量反映了这个矩阵空间最主要的能量分布,所以我们可以用这几个特征向量来表示整个空间,实现空间的降维。

这个方法叫做Principle Components Analysis,有兴趣的同学可以wiki一下。

学渣飘过了

编辑于 2015-10-23 
12 条评论 
感谢 

分享  
收藏 
 
没有帮助 
 
举报 
 
作者保留权利


1
赞同

反对,不会显示你的姓名
《如何理解矩阵特征值?》
董豪晨 
,做更好的算法
黄苍杰 
赞同 看了大部分的回答,基本都没有回答出为什么要求特征值。

特征值和特征向量是为了研究矩阵仿射变换的不变性而提出的,一个空间里的元素通过线性变换到另一个相同维数的空间,那么会有某些向量的方向在变换前后不会改变,方向不变但是这些向量的范数可能会改变,我这里说的都是实数空间的向量。

定义
《如何理解矩阵特征值?》,定义
《如何理解矩阵特征值?》为原始空间中的向量,
《如何理解矩阵特征值?》为变换后空间的向量,简单起见令
《如何理解矩阵特征值?》
《如何理解矩阵特征值?》阶方阵且特征值
《如何理解矩阵特征值?》互不相同,对应的特征向量
《如何理解矩阵特征值?》线性无关。那么原始空间中的任何一个向量都可以由A的特征向量表示,既
《如何理解矩阵特征值?》那么在变换到另一个空间时
《如何理解矩阵特征值?》,这就求完了!

好,下面再说更深层次的含义。

在不同的领域特征值的大小与特征向量的方向所表示的含义也不同,但是从数学定义上来看,每一个原始空间中的向量都要变换到新空间中,所以他们之间的差异也会随之变化,但是为了保持相对位置,每个方向变换的幅度要随着向量的分散程度进行调整。

你们体会一下拖拽图片使之放大缩小的感觉。

如果A为样本的协方差矩阵,特征值的大小就反映了变换后在特征向量方向上变换的幅度,幅度越大,说明这个方向上的元素差异也越大,换句话说这个方向上的元素更分散。

编辑于 2016-04-16 
添加评论 
感谢 

分享  
收藏 
 
没有帮助 
 
举报 
 
作者保留权利


4
赞同

反对,不会显示你的姓名
《如何理解矩阵特征值?》
单英晋 
,数学门外汉
大卫王一凡看开拉 
等人赞同 什么是方阵?方阵就是n维线性空间上的线性变换。那么我们总要考虑最简单的情况:什么是一维的线性变换呢?就是简单的常数倍拉伸

A: x -> ax

在高维的时候,线性变换A的结构可能很复杂,但它总会保持某些一维子空间不变。在这些子空间上它的限制就是一个一维线性变换,这个变换的拉伸常数就是A在这个子空间上的特征值。

发布于 2013-10-24 
添加评论 
感谢 

分享  
收藏 
 
没有帮助 
 
举报 
 
作者保留权利


1
赞同

反对,不会显示你的姓名
《如何理解矩阵特征值?》
九铭书记 
,知道一点微末的数学知识,一直想还原有趣…
李勇 
赞同 特征值后面对于解矩阵微分方程也有很大作用。矩阵的特征值是一种线性变换,可以理解为在坐标轴上(可以为多维度坐标轴)的一种拉伸变换

发布于 2014-05-05 
添加评论 
感谢 

分享  
收藏 
 
没有帮助 
 
举报 
 
作者保留权利


2
赞同

反对,不会显示你的姓名
《如何理解矩阵特征值?》
KevinSun 
,机器学习博士在读,只关注神经网络方法!
看开拉teresa zhang 
赞同 特征值首先是描述特征的。比如你的图片是有特征的,并且图片是存在某个坐标系的。特征向量就代表这个坐标系,特征值就代表这个特征在这个坐标方向上的恭喜。总之,就是代表在对应左边轴上的特征大小的贡献

发布于 2014-05-05 
3 条评论 
感谢 

分享  
收藏 
 
没有帮助 
 
举报 
 
作者保留权利


32
赞同

反对,不会显示你的姓名
《如何理解矩阵特征值?》
闫星光 
,这个定理的证明将留给读者作为练习
张序啦啦黄开宇 
等人赞同 /* 多图预警 */

用特征向量作为基,线性变换会很简单,仅仅是伸缩变换,而特征值就是伸缩的大小。

各位已经说的很清楚了,我就发几张用mathematica做的图吧。

这里只给出一些“可视化”的2D线性变换。


《如何理解矩阵特征值?》平面当中的一个向量
《如何理解矩阵特征值?》经过一个线性变换(乘上一个矩阵)之后变成了另一个
《如何理解矩阵特征值?》的向量
《如何理解矩阵特征值?》,把它的起点接在
《如何理解矩阵特征值?》,就可以表示线性变换的特性。再画出一组特征向量,我们就有下图:

《如何理解矩阵特征值?》

颜色越深冷,代表向量长度越小。

可以看出特征向量所在的直线上的向量经过变换之后方向不变,这意味着一个向量的分量是各自独立的,这对于我们分析矩阵、线性变换就方便了很多。

(绿色箭头是矩阵的行向量,红色是特征向量)

《如何理解矩阵特征值?》
《如何理解矩阵特征值?》

只有一个特征值-1的情况:

《如何理解矩阵特征值?》

《如何理解矩阵特征值?》

特征值是虚数的反对称矩阵:

《如何理解矩阵特征值?》其实做的是动图,可惜知乎不支持动图。

编辑于 2015-04-21 
3 条评论 
感谢 

分享  
收藏 
 
没有帮助 
 
举报 
 
作者保留权利



3
赞同

反对,不会显示你的姓名
《如何理解矩阵特征值?》
知乎用户 
,随风奔跑自由是方向
啦啦兔小灰知乎用户 
赞同 仅考虑非奇异矩阵。

以3阶非奇异矩阵
《如何理解矩阵特征值?》为例,设它的3个特征值(多重特征值就重复写)分别为 
《如何理解矩阵特征值?》,
《如何理解矩阵特征值?》,
《如何理解矩阵特征值?》, 对应的特征向量分别为
《如何理解矩阵特征值?》,
《如何理解矩阵特征值?》
《如何理解矩阵特征值?》,则
《如何理解矩阵特征值?》线性无关。

此时任一向量
《如何理解矩阵特征值?》可表示为
《如何理解矩阵特征值?》的线性组合,设
《如何理解矩阵特征值?》,则有

《如何理解矩阵特征值?》

正好是
《如何理解矩阵特征值?》
《如何理解矩阵特征值?》的各特征向量上分量乘以特征值之和。

编辑于 2015-10-13 
1 条评论 
感谢 

分享  
收藏 
 
没有帮助 
 
举报 
 
作者保留权利


1
赞同

反对,不会显示你的姓名
《如何理解矩阵特征值?》
张涵 
,NLP/ML/ECG
一碗酱油 
赞同 从PAGERANK算法角度出发,多次进行迭代R=MR得出收敛的向量即为特征向量。参考特征向量的定义:aR=MR,把a(一个数)除到右边去及有R=M1 R,M1=M/a.以上就是pagerank算法的简易数学支撑。

发布于 2015-01-09 
添加评论 
感谢 

分享  
收藏 
 
没有帮助 
 
举报 
 
作者保留权利


17
赞同

反对,不会显示你的姓名
《如何理解矩阵特征值?》
四爷 
,Indeco
单梁张荣真骷髅头 
等人赞同 就去让你给我接个人,她有很多特征,我会挑几个特典型如长发超级大美女、身材高挑皮肤好。。。其中特征值就是多高,多美,特征向量就是这些分类。。因为不需要给你所有信息,只要几个典型也不会让你找错人,所以能给你降维。

如果你要找女友,只要几个典型如美,高之类的,估计你很快就能在100人中就能找到你心仪的,所以能寻优

from: http://www.zhihu.com/question/21874816

    原文作者:GarfieldEr007
    原文地址: https://blog.csdn.net/GarfieldEr007/article/details/51452876
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞