求矩阵特征值的求法。

简介/矩阵特征值
设&A&是n阶方阵,如果存在数m和非零n维列 x,使得&Ax=mx&成立,则称&m&是A的一个(characteristic&value)或(eigenvalue)。非零n维列向量x称为矩阵A的属于(对应于)特征值m的特征向量或本征向量,简称A的特征向量或A的本征向量。
求值方法/矩阵特征值
求矩阵的特征值和特征向量Ax=mx,等价于求m,使得(mE-A)x=0,其中E是单位矩阵,0为零矩阵。|mE-A|=0,求得的m值即为A的特征值。|mE-A|&是一个n次多项式,它的全部根就是n阶方阵A的全部特征值,这些根有可能相重复,也有可能是复数。如果n阶矩阵A的全部特征值为m1&m2&...&mn,则|A|=m1*m2*...*mn同时矩阵A的迹是特征值之和:tr(A)=m1+m2+m3+…+mn[1]&如果n阶矩阵A满足矩阵多项式方程g(A)=0,&则矩阵A的特征值m一定满足条件g(m)=0;特征值m可以通过解方程g(m)=0求得。还可用mathematica求得。
&|&相关影像
互动百科的词条(含所附图片)系由网友上传,如果涉嫌侵权,请与客服联系,我们将按照法律之相关规定及时进行处理。未经许可,禁止商业网站等复制、抓取本站内容;合理使用者,请注明来源于。
登录后使用互动百科的服务,将会得到个性化的提示和帮助,还有机会和专业认证智愿者沟通。
此词条还可添加&
编辑次数:8次
参与编辑人数:3位
最近更新时间: 16:35:14
申请可获得以下专属权利:
贡献光荣榜扫二维码下载作业帮
拍照搜题,秒出答案,一键查看所有搜题记录
下载作业帮安装包
扫二维码下载作业帮
拍照搜题,秒出答案,一键查看所有搜题记录
已知A的特征值 求A*的特征值
未来大空持
扫二维码下载作业帮
拍照搜题,秒出答案,一键查看所有搜题记录
当A可逆时,若 λ是A的特征值,α 是A的属于 特征值λ的特征向量,则 |A| / λ 是 A*的特征值,α 仍是A*的属于 特征值 |A| / λ 的特征向量
为您推荐:
其他类似问题
不好意思,小学水平
怎么做呢?
不会啊,小学水平~!
线性代数的都忘光了已经。
(a为A的特征值) A*A=|A|E
两边右乘X则A*AX=|A|X
aA*X=|A|X所以
A*X=(|A|/a)X
A逆的特征值为
1/λ而A*=A的值乘以A逆所以A*的特征值就是A的值/λ了嗯 非常感谢
不过需要在不知道 A逆的特征值为
1/λ 这个条件下来证明这些都是考试直接拿出来用的常识
要牢记对 但是我就是想要证明 因为又一个题目 是知道A*的特征向量反求A的特征向量的
题目需要步骤说明...
这些都是考试直接拿出来用的常识
对 但是我就是想要证明 因为又一个题目 是知道A*的特征向量反求A的特征向量的
题目需要步骤说明
扫描下载二维码如何理解矩阵特征值? - 知乎4650被浏览333105分享邀请回答90580 条评论分享收藏感谢收起archive.ics.uci.edu/ml/machine-learning-databases/wine/wine.data原数据有13维,但这之中含有冗余,减少数据量最直接的方法就是降维。做法:把数据集赋给一个178行13列的矩阵R,减掉均值并归一化,它的协方差矩阵,C是13行13列的矩阵,对C进行特征分解,对角化,其中U是特征向量组成的矩阵,D是特征之组成的对角矩阵,并按由大到小排列。然后,另,就实现了数据集在特征向量这组正交基上的投影。嗯,重点来了,R’中的数据列是按照对应特征值的大小排列的,后面的列对应小特征值,去掉以后对整个数据集的影响比较小。比如,现在我们直接去掉后面的7列,只保留前6列,就完成了降维。这个降维方法叫PCA(Principal Component Analysis)。下面看结果:这是不降维时候的分类错误率。这是不降维时候的分类错误率。这是降维以后的分类错误率。结论:降维以后分类错误率与不降维的方法相差无几,但需要处理的数据量减小了一半(不降维需要处理13维,降维后只需要处理6维)。1.2K114 条评论分享收藏感谢收起查看更多回答

我要回帖

更多关于 求矩阵特征值 的文章

 

随机推荐