空间向量的应用法的应用和特点 最好举例子

求n阶实方阵A的全部模最大的特征值及其相应特征向量的幂法--《技术教育学报》1998年03期
求n阶实方阵A的全部模最大的特征值及其相应特征向量的幂法
【摘要】:本文给出并论证了当n阶实方阵A具有i(1≤i≤n)个(即任意多个)模最大的特征值时,用幂法求出这些模最大的特征值及其相应特征向量的方法.该方法是对幂法理论的进一步完善.
【作者单位】:
【关键词】:
【分类号】:O151.21【正文快照】:
0前宫幂法是一种计算实方阵A的模最大的特征值的一种迭代方法,它的最大特点是方法简单。文〔1」中指出:应用迭代公式Hk+1。AHk(l)得出了足够多的向量以后,应当检查是否出现了以下3种情况:1”xk+1近似地等于Ik乘以某一常数f;2”x。+。近似地等于k乘以某一常数S;3X。,X。十;,
欢迎:、、)
支持CAJ、PDF文件格式,仅支持PDF格式
【参考文献】
中国期刊全文数据库
侯风波;[J];工科数学;1996年02期
【共引文献】
中国期刊全文数据库
侯风波,汪永高;[J];承德石油高等专科学校学报;1999年01期
侯风波,汪永高;[J];工科数学;2000年02期
侯风波,汪永高;[J];工科数学;2001年06期
【二级参考文献】
中国期刊全文数据库
陈仁华,候风波;[J];大庆石油学院学报;1995年03期
【相似文献】
中国期刊全文数据库
侯风波,汪永高;[J];承德石油高等专科学校学报;1999年01期
侯风波,汪永高;[J];工科数学;2000年02期
周立仁;[J];云梦学刊;1999年04期
陈建明;[J];浙江师大学报(自然科学版);1998年04期
许丽雅;[J];黑龙江商学院学报(自然科学版);1999年02期
胡忠;[J];长春大学学报;2000年04期
张明善,何德权,郭耀煌;[J];西南交通大学学报(自然科学版);1998年04期
刘喜排,王静;[J];保定师范专科学校学报;2002年04期
魏焕彩,郑修才;[J];工科数学;1999年03期
胡忠,胡勇;[J];长春师范学院学报;2001年05期
中国重要会议论文全文数据库
张新培;曹策慧;;[A];第五届全国结构工程学术会议论文集(第二卷)[C];1996年
吴志彬;陈义华;;[A];2006中国控制与决策学术年会论文集[C];2006年
宋庆伟;寇纪凇;李敏强;;[A];1997中国控制与决策学术年会论文集[C];1997年
李连;朱爱红;;[A];’2004计算机应用技术交流会议论文集[C];2004年
赵贤敬;郑宝玉;傅洪亮;张继东;;[A];通信理论与信号处理新进展——2005年通信理论与信号处理年会论文集[C];2005年
林令娟;刘希玉;;[A];第三届中国智能计算大会论文集[C];2009年
李凯智;阿木古楞;白云莉;;[A];第八届全国信息获取与处理学术会议论文集[C];2010年
刘增武;蔡悦斌;;[A];中国声学学会1999年青年学术会议[CYCA'99]论文集[C];1999年
王伟;刘文涛;;[A];第二十三届中国(天津)2009IT、网络、信息技术、电子、仪器仪表创新学术会议论文集[C];2009年
刘慧明;高齐圣;隋树林;;[A];1996中国控制与决策学术年会论文集[C];1996年
中国重要报纸全文数据库
王俊艳;[N];计算机世界;2006年
黄岳钧;[N];中国人事报;2007年
北京数码空间信息技术有限公司技术总监
刘斌;[N];计算机世界;2000年
王向东 栾焕博 林守勋 钱跃良;[N];计算机世界;2006年
黄力行?陶建华;[N];计算机世界;2007年
上海海成投资公司
韩洪宇;[N];期货日报;2007年
武汉科技学院纺织服装学院
林子务;[N];中国纺织报;2004年
清华大学数学科学系
葛余博;[N];中国教育报;2005年
清华大学 苏光大;[N];计算机世界;2006年
武德锋 李国辉 林洪文 姚作梁;[N];计算机世界;2002年
中国博士学位论文全文数据库
龚世才;[D];安徽大学;2010年
曹向海;[D];西安电子科技大学;2008年
陈少田;[D];吉林大学;2009年
刘祖根;[D];浙江大学;2007年
王晓元;[D];大连理工大学;2009年
彭德中;[D];电子科技大学;2006年
李师广;[D];上海交通大学;2007年
李勇;[D];吉林大学;2009年
阎高伟;[D];太原理工大学;2007年
徐忠海;[D];吉林大学;2008年
中国硕士学位论文全文数据库
张汉珍;[D];西安电子科技大学;2010年
鲁志娟;[D];西北大学;2008年
杨谱;[D];南昌大学;2006年
夏朋;[D];吉林大学;2009年
任丹妮;[D];西北大学;2009年
陶志苗;[D];南昌大学;2007年
李士荣;[D];重庆师范大学;2008年
张魁慧;[D];辽宁师范大学;2009年
潘荣英;[D];上海交通大学;2009年
陈哲明;[D];西华大学;2006年
&快捷付款方式
&订购知网充值卡
400-819-9993
800-810-6613
《中国学术期刊(光盘版)》电子杂志社有限公司
同方知网数字出版技术股份有限公司
地址:北京清华大学 84-48信箱 知识超市公司
出版物经营许可证 新出发京批字第直0595号
订购热线:400-819-82499
服务热线:800-810-91813
在线咨询:
传真:010-
京公网安备74号什么是特征向量,特征值,矩阵分解
&&&&&&&&我们先考察一种线性变化,例如x,y坐标系的椭圆方程可以写为x^2/a^2+y^2/b^2=1,那么坐标系关于原点做旋转以后,椭圆方程就要发生变换。我们可以把原坐标系的(x,y)乘以一个矩阵,得到一个新的(x',y')的表示形式,写为算子的形式就是(x,y)*M=(x',y')。这里的矩阵M代表一种线性变换:拉伸,平移,旋转。那么,有没有什么样的线性变换b(b是一个向量),使得变换后的结果,看起来和让(x,y)*b像是一个数b乘以了一个数字m*b?
换句话说,有没有这样的矢量b,使得矩阵A*b这样的线性变换相当于A在矢量b上面的投影m*b? 如果有,那么b就是A的一个特征向量,m就是对应的一个特征值。一个矩阵的特征向量可以有很多个。特征值可以用特征方程求出,特征向量可以有特征值对应的方程组通解求出,反过来也一样。例如,设A为3阶实对称矩阵,a1=(a,-a,1)T是Ax=0的解,a2=(a,1,-a)T是(A+E)x=0的解,a≠2,则常数a=? 因为a1=(a,-a,1)T是Ax=0的解,说明a1=(a,-a,1)T是A的属于0的特征向量,a2=(a,1,-a)T是(A+E)x=0的解,说明a2=(a,1,-a)T是A的属于-1的特征向量。实对称矩阵属于不同特征值的特征向量式正交的,所以a^2-a-a=0,a≠2,所以a=0。
&&&&&&&&还是太抽象了,具体的说,求特征向量的关系,就是把矩阵A所代表的空间,进行正交分解,使得A的向量集合可以表示为每个向量a在各个特征向量上面的投影长度。例如A是m*n的矩阵,n&m,那么特征向量就是m个(因为秩最大是m),n个行向量在每个特征向量E上面有投影,其特征值v就是权重。那么每个行向量现在就可以写为Vn=(E1*v1n,E2*v2n...Em*vmn),矩阵变成了方阵。如果矩阵的秩更小,矩阵的存储还可以压缩。再:
由于这些投影的大小代表了A在特征空间各个分量的投影,那么我们可以使用最小2乘法,求出投影能量最大的那些分量,而把剩下的分量去掉,这样最大限度地保存了矩阵代表的信息,同时可以大大降低矩阵需要存储的维度,简称PCA方法。
&&&&&&&&举个例子,对于x,y平面上的一个点(x,y),我对它作线性变换,(x,y)*[1,0;0,-1],分号代表矩阵的换行,那么得到的结果就是(x,-y),这个线性变换相当于关于横轴x做镜像。我们可以求出矩阵[1,0;0,-1]的特征向量有两个,[1,0]和[0,1],也就是x轴和y轴。什么意思呢? 在x轴上的投影,经过这个线性变换,没有改变。在y轴上的投影,乘以了幅度系数-1,并没有发生旋转。两个特征向量说明了这个线性变换矩阵对于x轴和y轴这两个正交基是线性不变的。对于其他的线性变换矩阵,我们也可以找到类似的,N个对称轴,变换后的结果,关于这N个对称轴线性不变。这N个对称轴就是线性变换A的N个特征向量。这就是特征向量的物理含义所在。所以,矩阵A等价于线性变换A。
&&&&&&&&对于实际应用的矩阵算法中,经常需要求矩阵的逆:当矩阵不是方阵的时候,无解,这是需要用到奇异值分解的办法,也就是A=PSQ,P和Q是互逆的矩阵,而S是一个方阵,然后就可以求出伪逆的值。同时,A=PSQ可以用来降低A的存储维度,只要P是一个是瘦长形矩阵,Q是宽扁型矩阵。对于A非常大的情况可以降低存储量好几个数量级。
&&&&&&&&特征向量有什么具体的物理意义? 例如一个驻波通过一条绳子,绳子上面的每个点组成一个无穷维的向量,这个向量的特征向量就是特征函数sin(t),因为是时变的,就成了特征函数。每个点特征值就是每个点在特定时刻的sin(x+t)取值。再如,从太空中某个角度看地球自转,虽然每个景物的坐标在不断的变换,但是这种变换关于地球的自传轴有对称性,也就是关于此轴的平移和拉伸的坐标变换不敏感。所以地球自转轴,是地球自转这种空间变换的一个特征向量。Google的PageRank,就是对www链接关系的修正邻接矩阵的,主要特征向量的投影分量,给出了页面平分。有什么特性呢?
AB和BA有相同的特征向量----设AB的特征向量为x,对应的特征值为b,则有(AB)x = bx,将上式两边左乘矩阵B,得B(AB)x = (BA)(Bx) = b(Bx),故b为BA的特征值,对应的特征向量为Bx。反之亦然。
&&&&&&&&什么是特征矩阵和特征值?我们用整体论来考虑,假设P(A)=(1,2,3)是A的3个特征向量。那么P(A^2)就是(1^2,2^2,3^2),P可以看作是一种算子。当然,算子的特性是需要用部分/细节详细证明的。一旦证明,就可以作为整体的特征。特征值有什么特性?说明矩阵可以分解成N维特征向量的投影上面,这N个特征值就是各个投影方向上的长度。由于n*n矩阵A可以投影在一个正交向量空间里面,那么任何N维特征向量组成的矩阵都可以是线性投影变换矩阵,那么I就是一个同用的线性变换投影矩阵。所以对于特征值m,一定有是够成了一个没有线性无关向量的矩阵Aa=ma两边同乘以I得到
Aa=maI,所以(A-mI)a=0有非0解,那么|A-mI|=0(可以用反正法,如果这个行列式不是0,那么N个向量线性无关,在N维空间中只能相交于原点,不可能有非0解)。所以可以推出一些很有用的性质,例如A=[1/2,1,1;0,1/3,1;0,0,1/5],那么只要满足|A- mI|=0的值就是特征值,显然特征值数组立即可以得到(1/2,1/3,1/5)。一个n*n的矩阵A,秩=1,那么最大线性无关组=1组,特征向量=1个,任意n维非零向量都是A的特征向量。特征向量本身不是定死的,这就好比坐标系可以旋转一样。一旦特征向量的各个方向确定了,那么特征值向量也就确定了。求特征值的过程就是用特征方程:|A-mE|=0,P(1/A)=1/P(A),可以证明。有什么物理含义呢?一个N维线性无关的向量,去掉其中的一维,那么就有至少两个向量是线性相关的了,所以行列式=0。特征矩阵有什么作用?把矩阵变化为正定矩阵,也就是A=P^-1BP,这样的变换,A是对角阵。
&&&&&&&&线性代数的研究,是把向量和矩阵作为一个整体,从部分的性质出发,推到出整体的性质,再由整体的性质得到各种应用和物理上的概念。当矩阵A是一个符号的时候,它的性质会和实数a有很多相似的地方。科学的定理看起来总是递归着的。再举一个例子,高数的基本概念有微分,积分,倒数,那么我立刻可以想到中值定理就应该有3个,形式上分别是微分,积分和倒数。
&&&&&&&&线性变换的缺点:线性变换PCA可以用来处理图像。如2维的人像识别:
1. 我们把图像A看成矩阵,进一步看成线性变换矩阵,把这个训练图像的特征矩阵求出来(假设取了n个能量最大的特征向量)。用A乘以这个n个特征向量,得到一个n维矢量a,也就是A在特征空间的投影。
2. 今后在识别的时候同一类的图像(例如,来自同一个人的面部照片),认为是A的线性相关图像,它乘以这个特征向量,得到n个数字组成的一个矢量b,也就是B在特征空间的投影。那么a和b之间的距离就是我们判断B是不是A的准则。
&&&&&&&&不过,PCA有天生的缺点,就是线性矢量的相关性考察有&平移无关性&优点的同时,也完全忽略了,2维图形中,矢量分量之间的顺序是有意义的,顺序不同可以代表完全不同的信息。还有,就是图像B必须是A的某种伸缩(由特征向量空间决定的),才能被很好的投影到A的特征向量空间里面,如果B包含了A中的某种旋转因素,那么PCA可以彻底失效。所以实际应用中PCA的方法做图像识别,识别率并不高,它要求图像有某种严格的方向对齐和归一化。所以PCA一般不用来做直接的特征提取而是用来做特征矩阵的降维。当然,降维的结果用于分类并不理想,我们可以进一步做最小二承法拉开类间距离的Fisher变换。但是Fisher变换会引入新的弱点,那就是对于训练类别的数据变得更敏感了,分类效果上升的代价是通用性下降,当类型数量急剧膨胀的时候,分类效果的函数仍然是直线下降的----但是还是比直接PCA的分类效果好得多。
&&&&&&&&K-L变换是PCA的一个应用形式。假设图像类型C有N个图像,那么把每个图像拉直成一个向量,N个图像的向量组成一个矩阵,求矩阵的特征向量(列向量)。那么用原来的N个图像乘以这些列向量求出平均值,就是我们的特征图像。可以看到特征图像和原图像有相似的地方,但是去掉了和拉伸,平移相关的一些形变信息。在得到了鲁棒性的同时,牺牲了很多精确性。所以它比较适合特定范围图像的Verification工作,也就是判断图像P是不是属于类型C。对比一下神经网络:说白了把函数y=f(x)的映射,变成了[y]=[f(x)]的向量映射。输入输出的点(entry)是固定的。而真实的神经系统,并没有明显的内部处理和外部接口的区分。所以所有的神经网络理论,名字上是神经网络,实质上,差得很远。
&&&&&&&&最后:什么是&谱&(Spectrum)? 我们知道音乐是一个动态的过程,但是乐谱却是在纸上的,静态的存在。对于数学分析工具,研究时变函数的工具,可以研究傅立叶变换对应的频率谱;对于概率问题,虽然每次投色子的结果不一样,但是可以求出概率分布的功率谱密度。数学作为一种形而上学工具,研究的重点,就是这个变化世界当中那些不变的规律。
****************************************************************************************************************************************
长时间以来一直不了解矩阵的特征值和特征向量到底有何意义(估计很多人有同样感受)。知道它的数学公式,但却找不出它的几何含义,教科书里没有真正地把这一概念从各种角度实例化地进行讲解,只是一天到晚地列公式。
根据特征向量数学公式定义,矩阵乘以一个向量的结果仍是同维数的一个向量,因此,矩阵乘法对应了一个变换,把一个向量变成同维数的另一个向量,那么变换的效果是什么呢?这当然与方阵的构造有密切关系,比如可以取适当的二维方阵,使得这个变换的效果就是将平面上的二维向量逆时针旋转30度,这时我们可以问一个问题,有没有向量在这个变换下不改变方向呢?可以想一下,除了零向量,没有其他向量可以在平面上旋转30度而不改变方向的,所以这个变换对应的矩阵(或者说这个变换自身)没有特征向量(注意:特征向量不能是零向量),所以一个变换的特征向量是这样一种向量,它经过这种特定的变换后保持方向不变,只是进行长度上的伸缩而已(再想想特征向量的原始定义Ax=cx,
cx是方阵A对向量x进行变换后的结果,但显然cx和x的方向相同)。
这里给出一个特征向量的简单例子,比如平面上的一个变换,把一个向量关于横轴做镜像对称变换,即保持一个向量的横坐标不变,但纵坐标取相反数,把这个变换表示为矩阵就是[1 0;0 -1](分号表示换行),显然[1 0;0 -1]*[a b]'=[a -b]'(上标'表示取转置),这正是我们想要的效果,那么现在可以猜一下了,这个矩阵的特征向量是什么?想想什么向量在这个变换下保持方向不变,显然,横轴上的向量在这个变换下保持方向不变(记住这个变换是镜像对称变换,那镜子表面上(横轴上)的向量当然不会变化),所以可以直接猜测其特征向量是[a
0]'(a不为0),还有其他的吗?有,那就是纵轴上的向量,这时经过变换后,其方向反向,但仍在同一条轴上,所以也被认为是方向没有变化,所以[0 b]'(b不为0)也是其特征向量。
综上,特征值只不过反映了特征向量在变换时的伸缩倍数而已,对一个变换而言,特征向量指明的方向才是很重要的,特征值似乎不是那么重要;但是,当我们引用了Spectral theorem(谱定律)的时候,情况就不一样了。
Spectral theorem的核心内容如下:一个线性变换(用矩阵乘法表示)可表示为它的所有的特征向量的一个线性组合,其中的线性系数就是每一个向量对应的特征值,写成公式就是:
T(V)=λ1(V1.V)V1+λ2(V2.V)V2+λ3(V3.V)V3+...
从这里我们可以看出,一个变换(矩阵)可由它的所有特征向量完全表示,而每一个向量所对应的特征值,就代表了矩阵在这一向量上的贡献率——说的通俗一点就是能量(power),至此,特征值翻身做主人,彻底掌握了对特征向量的主动:你所能够代表这个矩阵的能量高低掌握在我手中,你还吊什么吊?
我们知道,一个变换可由一个矩阵乘法表示,那么一个空间坐标系也可视作一个矩阵,而这个坐标系就可由这个矩阵的所有特征向量表示,用图来表示的话,可以想象就是一个空间张开的各个坐标角度,这一组向量可以完全表示一个矩阵表示的空间的“特征”,而他们的特征值就表示了各个角度上的能量(可以想象成从各个角度上伸出的长短,越长的轴就越可以代表这个空间,它的“特征”就越强,或者说显性,而短轴自然就成了隐性特征),因此,通过特征向量/值可以完全描述某一几何空间这一特点,使得特征向量与特征值在几何(特别是空间几何)及其应用中得以发挥。
关于特征向量(特别是特征值)的应用实在是太多太多,近的比如俺曾经提到过的PCA方法,选取特征值最高的k个特征向量来表示一个矩阵,从而达到降维分析+特征显示的方法;近的比如Google公司的成名作PageRank,也是通过计算一个用矩阵表示的图(这个图代表了整个Web各个网页“节点”之间的关联)的特征向量来对每一个节点打“特征值”分;再比如很多人脸识别,数据流模式挖掘分析等方面,都有应用,有兴趣的兄弟可以参考IBM的Spiros在VLDB‘ 05,SIGMOD ’06上的几篇文章。
特征向量不仅在数学上,在物理,材料,力学等方面(应力、应变张量)都能一展拳脚,有老美曾在一本线代书里这样说过“有振动的地方就有特征值和特征向量”,确实令人肃然起敬+毛骨悚然...... &
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:15348次
排名:千里之外
转载:37篇
(17)(1)(5)(2)(5)(2)(3)(2)(1)基于向量空间模型的特征抽取技术分析任克强_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
评价文档:
3页¥2.005页¥2.004页¥2.004页¥2.006页¥2.00 4页免费18页免费68页1下载券17页2下载券5页1下载券
喜欢此文档的还喜欢4页2下载券4页1下载券67页1下载券3页1下载券8页1下载券
基于向量空间模型的特征抽取技术分析任克强|
把文档贴到Blog、BBS或个人站等:
普通尺寸(450*500pix)
较大尺寸(630*500pix)
你可能喜欢特征向量的物理意义_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
评价文档:
12页免费4页免费15页免费3页免费8页免费 20页免费7页2下载券7页1下载券5页免费10页免费
特征向量的物理意义|
把文档贴到Blog、BBS或个人站等:
普通尺寸(450*500pix)
较大尺寸(630*500pix)
你可能喜欢

我要回帖

更多关于 向量的应用 的文章

 

随机推荐