线性代数矩阵视频,矩阵方面问题

如何直观理解矩阵和线性代数?
想从直觉上理解矩阵的定义,运算规则和属性,比如特征向量什么的。网上有流传甚广的《理解矩阵》老三篇 。非常欣赏这样的教程的思路、文笔,也很赞同作者关于学习的方法论,可惜这三篇只是开了个头,大约只讲到了矩阵的定义的直观理解,没有讲到秩、特征值、奇异值之类的。
这个系列视频讲得比较全了,都是动画演示,非常直观。自己按需观看吧:视频地址:内容目录:第零讲:序言第一讲:向量究竟是什么第二讲:线性组合、张成的空间与基第三讲:矩阵与线性变换第四讲:矩阵乘法与线性变换的复合第四讲附注:三维空间中的线性变换第五讲:行列式的意义第六讲:逆矩阵、列空间与零空间第六讲附注:非方阵第七讲:点积与对偶性第八讲上:叉积的标准介绍第八讲下:以线性变换的眼光看叉积第九讲:基变换第十讲:特征向量与特征值第十一讲:抽象向量空间视频原作者:(可汗学院的一位教师),字幕中译:原作者3Blue1Brown最近在Patreon上发起众筹,说如果获得足够多的资助,他就可以辞去工作,全职做这类视频,以每月两部的速度发布。计划要做的视频系列包括「微积分的本质」「概率的本质」「实分析的本质」「复分析的本质」「常微分方程的本质」等等,此外还会经常制作像「」「」那样的单个视频。目前他正开始着手制作「微积分的本质」系列,凡是在Patreon上资助了他的人可以抢先看,不必等到整个系列制作完毕。资助网址是: ,诸位若有条件不妨去支持一下。最低额度只要1美元/个视频,就能优先观看今后制作的所有「XX的本质」系列视频。(刚发现,Minecraft的作者Markus Persson赫然出现在资助者名单中……)
来试着回答一下这个问题吧。1 首先讲线性代数。既然是代数,无非都是研究量与量之间的关系。在高中代数里面:基本量是实数集里的标量,量与量的关系可以是线性的(),也可以是非线性的(指数、幂、多项式等等)。而线性代数呢:基本量是 线性空间里的向量(一个数组),基本关系是严格的线性关系。会在最后一章“二次型”里面简单讲述二次关系。2 然后就是矩阵。矩阵就是描述这种线性关系的参数。2.1 我们来比较:初等代数中,表示的是的一种映射关系,是描述这个关系的参数。线性代数中呢, ()表示什么呢?首先与初等代数一样,这个等式表示的是的一种映射(关系),同理此处矩阵就是描述这种关系的参数。换句话说和的本质是一样的。2.2.1 那一定会有人问,为什么定义这么复杂(加权求和)呢(远没有实数相乘这么简单)?那我想说的是,其实这是在“无损信息”下最简单的关系了!且看:我们得考虑到自变输入量是个维向量,那么就得把这个维度都逐一考虑一遍吧……而且考虑到因变输出量是个维向量,那总得把上面这个维向量逐一考虑次吧……这就决定了的“信息量”一定至少得……2.2.2 当然一定也有人问,那为什么要用加权求和(而不用加权求积,先求和再求积等)的方式定义矩阵乘法?首先这是个线性算法(去翻线性的定义)。其次,我认为最重要的是,在非线性问题线性化后,求一阶近似的时候,一元函数:即其中是多元函数:即其中是的Jacobian。换句话说,加权求和可以表达一种边际增加的概念,这是非常有用的。3 最后讲特征值和奇异值。首先说明的是,特征值奇异值的定义是为了简化矩阵运算提供了一种方式,一种技巧;也是描述一个矩阵特征的特定参数,让我们从特定角度理解这个矩阵。3.1 特征值是矩阵特有的值。说其为特征值,根据定义也好理解:定义:如果,则说是的一个特征值,是对应的的特征向量。换句话说,在这个方向上,做的事情无非是把沿其的方向拉长/缩短了一点(而没有一丝丝的旋转到其它方向),就是描述这个沿着方向上伸缩的比例。注意这里隐藏了一个重要的潜在条件:映射的定义域和值域是相同的空间(不然无法说自变量在其方向上通过拉伸倍得到因变量),反应在大一线代里面也就是说必须是方阵。【西文原文中Eigenvalue Eigenvector 中的Eigen原意为“自我”,也就是说,Eigenvector是经原矩阵变换之后只向“自我方向”延伸的向量,Eigenvalue是这个“自我延伸”的倍率。所以与其翻译成“特征”,个人更愿意把它翻译成“本征”(这也是一种通俗译法)。】那么这样,给定任意的一个向量,我们如何求呢? 很简单,把沿着分解,然后分别按照各自的比例伸缩 最后再求和即可。有人一定问,这不是折腾么!那么当你运算的时候就发现好处了!沿着各个的伸缩正好是。所以,特征值在动态系统分析中是描述系统稳定性的非常重要的量,它决定了离散系统在空间内某个方向上的变化趋势(是无限扩张?还是收缩?还是保持不变?),这是判断离散线性系统的重要特征。特征值分解也就很好定义。 一个可对角化的方阵:分解为:,的列向量为特征向量()。理解为:以为基的坐标分解变换+伸缩变换+以为基坐标还原变换。3.2 奇异值分解也是为了简化矩阵运算的一种方式。它和特征值变换的基本理念不同,看似繁琐一点,却能道出线性变换的一般本质。定义:任何(而不仅仅是可对角化的方阵)的矩阵都可以如下分解:其中和是正交矩阵(复数域里面是酉矩阵),是由对角阵和零矩阵合成的矩阵。它的含义是 任何的变换可以理解为 一个正交变换+伸缩变换+另一个正交变换。(正交变换可以暂时理解为 “不改变大小以及正交性”的旋转/反射 等变换)这是对一般线性变换的本质的阐释。3.3 小结:特征值变换的条件很苛刻,必须是 1方阵 2可对角化。而奇异值变换却对矩阵没有任何要求。它阐明的是一般线性变化的本质。-----------------------------分割线----------------------------------才疏学浅,疏漏众多,还望达人提供意见。 Ver1 初始版本。 Ver2 扩展SVD(奇异值分解)部分。 Ver2.1 微调了一下排版,加了英文解释部分。 Ver2.2 微调了特征值分解部分。
线性代数主要研究的是(有限维)和,矩阵不是线性代数主要研究的。-------向量空间-------什么是向量空间呢?数域上向量空间就是一个集合,里面的元素叫作向量,并且上面定义了两个运算,向量加法和数量乘法,加法和数乘要满足向量空间的八个公理。详细请见:。定义了向量空间后,就可以定义生成(span)空间、线性相关和基。向量空间的子集的生成空间就是包含作为子集的最小向量空间:的子集说是线性相关的,如果存在各不相同的元素以及不全零的数使得。说是线性无关的,如果它不是线性相关的。向量空间的一个基就是的一个生成集合(即),并且是线性无关的。前面说过线性代数主要研究的是有限维向量空间,那么什么是维数呢?在定义维数之前,有一点细节要处理,花一点力气论证一下,就可以得到向量空间的每个基包含的元素个数是相同的。因此我们说向量空间有维数如果它有一个基含有个元素,我们说是有限维的如果它的维数是有限的,否则我们说是无限维的。-------线性变换-------线性变换就是从向量空间到向量空间的函数,并且保持向量空间的运算。设是向量空间,一个从到的线性变换是一个函数,并且满足下面性质:(保持向量加法)对任意,。(保持数量乘法)对于任何和数,。线性变换可以用矩阵来表示,为此,我们需要有序基的概念,设是有线性维向量空间,一个有序基是中的有限向量序列使得集合是的一个基。设是的一个有序基,是中的向量,我们知道有唯一的表示形式,我们把叫做相对于的坐标,记作。-------线性变换的矩阵表示-------设是有限维向量空间,是线性变换,中的向量相对于基有坐标表示,因为在中,它相对于基也有坐标表示。我们很自然地要问和有怎样的关系?这依赖于相对于和的矩阵表示。我们先求向量在基下坐标表示:定义线性变换相对于基和的矩阵表示为矩阵稍微计算一下就可以得到和的关系:。线性变换的和、数乘和复合也可以用矩阵来表示,因为我们有下面的命题:命题. 设是有限维向量空间有有序基,设和是线性变换,设是数,那么。命题.
设是维向量空间有有序基,是维向量空间有有序基,是维向量空间有有序基,那么。可以看到,矩形的加法表示线性变换的和,矩阵的乘法表示线性变换的复合。我们可以表这一点说的更明白。设是的实矩阵,我们定义线性变换为,这里我们认为和中的向量是列向量。根据上面的定义,计算一下就可以得到设是的实矩阵,是的实矩阵,那么。设是的实矩阵,是的实矩阵,那么。
矩阵不是线性代数最重要的课题,是次重要的。线性代数研究的东西,可以统一地说成是线性空间。研究向量——向量的全体是一个线性空间。研究线性映射——线性映射的全体是一个线性空间。我们用8A(八个公理)定义了什么是线性空间:要素:数域K,集合V不是空集,两个映射+: VxV-&V和*: KxV-&V公理:(我把量词集中到前面了)\exists 0 in V\forall a, b, c in V, p, q in K(1) a + b = b + a(2) (a + b) + c = a + (b + c)(3) a + 0 = a(4) \exists d in V, a + d = 0(5) p(a + b) = pa + pb(6) (p + q)a = pa + qa(7) p(qa) = (pq)a(8) 1a = a好了现在V是一个线性空间了。依此我们可以定义线性空间的基、维数等等等。线性空间的几何化例子:坐标系里面的原点、过原点的直线、过原点的平面、全空间等等等。但是代数不是几何,代数需要研究的是结构。线性代数呢,就是研究线性空间这种结构的。线性空间是一个很好的结构,我们可以研究线性空间到线性空间的映射,而且对这种映射加一点限制——线性。这是正比例函数的自然延拓。如果U, V都是K上的线性空间,f: U-&V,符合下面的条件:\forall x, y in U, k in Kf(x + y) = f(x) + f(y)f(kx) = kf(x)那么f就是一个从U到V的线性映射。(这里特别强调一件事情:两个性质里面,左右虽然都是加法或数乘,但是由于U、V可以是不同的线性空间,所以等式左右的加法和数乘其实不同,不要混淆)现在来点具体的例子舒服舒服:R-&R、C-&C之类的正比例函数是线性映射。又例如,投影映射,绕原点的旋转映射等等。说了这么多,好像没有什么具象化的东西嘛,好像和矩阵没什么关系嘛。不然。矩阵该登场了。对于f: U-&V是K上有限维线性空间U到有限维线性空间V的线性映射,选定U、V各自的一组基u1...um, v1...vn,我们可以用m*n个K里面的数决定这个线性映射。具体地说,就是令f(ui) = \sum(a(i, j)v(j), j=1...n), i=1...m知道了a(i, j),用线性映射的线性性和基的性质,可以得到任意U中元素在f作用下的像,所以说这m*n个数决定了这个线性映射。把这m*n个数如此排列:a(1, 1) ... a(1, n)...a(m, 1) ... a(m, n)这就是一个矩阵。说白了,选定基,就可以用矩阵描述线性映射。矩阵的乘法的意义极其显然——就是映射的乘法(复合)。(说到这个,最近某次考试我还因为这件事出了点洋相,不过因为保密协定,暂时不能说)相似矩阵是什么呢?是同一个线性变换在不同基下的矩阵。所以说,对角化、化为Jordan标准形就是要寻找一组基,让这组基下这个线性变换简单一点。方阵的特征值是什么呢?就是这种“简单”的一种表现,也很自然,因为一旦有了特征值和特征向量,这个线性变换看起来就像是正比例函数了!矩阵的合同,则是出于二次型的研究,二次型则可以用双线性形式表示。二次型看似和线性代数无关,其实骨子里还是线性的。那矩阵的相抵(等价)呢?如果是相似,我们已经知道了。注意谈到相似的时候,矩阵是方阵,而且所描述的线性映射必须是线性变换(同一个线性空间),而且所用的基必须是同一组。去掉这两个性质,U到V的线性映射,选定U不同的基、V不同的基,都会导致这个线性映射的矩阵不同。这些矩阵是相抵的。还有很多,在此不赘述。
I trust that the answer is hidden in this book.
这么说吧,如果有人能给你写一个很好的答案,那他一定是花很大功夫学习了线性代数,写出来让你觉得很有道理。但你看完这些貌似很直观的理解之后,其实对你的认识和理解没有任何帮助。先认认真真学吧,没有捷径,只有学懂了才会觉得有一些直观的理解。没有深入学习的直观都是错觉。。
什么是线性代数?不断变化的世界使我们产生时间观念。正确描述事物状态及其不同时间下的变化至关重要。我们知道在三维空间下如何描述物体的位置。然而除了长宽高,世界上还有很多决定事物状态的因素。如决定股票价钱的因素、决定天气的因素。这些因素又该如何合理的描述?线性代数给了我们答案。线性代数是有关任意维度空间下事物状态和状态变化的规则。矩阵线性代数是用来描述状态和变化的,而矩阵是存储状态和变化的信息的媒介,可以分为状态(静态)和变化(动态)信息来看待。当把矩阵以静态信息来看待时,其信息的侧重点在于状态二字。描述一个事物的状态需要在一个选好的坐标系(什么样的向量空间)中进行,所以矩阵所包含的信息从来都是成对出现(坐标值和坐标系)。而基就是坐标系的信息,可以将其拆分出来。当把矩阵以动态信息来看待时,其信息的侧重点在于变化二字。这时的矩阵可以看做是一个方程。通过矩阵内所描述的变化规则从一个状态变换到另一个状态。变换可以理解为事物本身的变化,也可以理解为坐标系的变化。矩阵乘法是什么矩阵乘法就是变化的行为静态信息又可以看成是动态信息的矩阵相乘后得到的状态,所以矩阵可以被分解。秩描述的是一个矩阵内带有多少信息,秩低则信息就少。原文 更新内容:已阅读过该文的朋友,请到中再看一遍关于矩阵围绕状态和变化的理解。目录矩阵乘法向量点乘下面严肃点,我是来讲线性代数的。先让我们来看一段视频,但我希望你只看一遍!如果你继续读到了这句话,那么恭喜你,你抵抗住了病毒的洗脑。同时你听到了3个向量点乘。1、I have a pen, I have an apple—-&apple pen (eq.1) 2、I have a pen, I have a pineapple—-&pineapple pen (eq.2) 3、apple pen, pineapple pen—-&pen pineapple apple pen (eq.3) 以(eq.1)举例。等式右边的第二个向量表示你有什么,右边的第一个向量表示你各拿几个,而等式的左边表示你获得了什么。从中你可以看出来:向量点乘(dot product)是一种组合(combination)矩阵乘向量我们也可以把(eq.1)(eq.2)合二为一表示为(eq.4):I have a pen, I have an apple—-&apple pen,I have a pen, I have a pineapple—-&pineapple pen (eq.4)这时,表示你各拿几个的向量变成了两行(两组),也就成了矩阵(向量是只有一行或一列的矩阵)。 表示你各拿几个的一个向量也叫一组权重(weights)。 在 中,第一个1对应着apple,第二个0对应着pineapple,第三个1对应着pen,我们不可以随意调换位置。所以,向量是有顺序的一组数字,每个数字都是该向量的一个因素(element)因素横着排列的向量叫做行向量(row vector),因素竖着排列的向量叫做列向量(column vector)到这里我们需要更具体的描述一下第一个结论。向量点乘是一种组合,但向量点乘向量可以是列向量中各个因素的一个组合上式(eq.4)可分两步计算:计算第一行权重得到的组合apple pen后,放到了第一行计算第二行权重得到的组合pineapple pen后,放到了第二行行成的依然有顺序,仍然是一个向量。比较向量点乘向量,我们可以看出矩阵乘向量可以是列向量中各个因素的多个有顺序的组合向量乘矩阵然而形成组合的成分并不一定非要是向量中的各个元素,也可以是不同向量之间的组合。我们可以把(eq.1)(eq.2)(eq.3)改写成(eq.5)(eq.6):(eq.5)(eq.6)在(eq.5)等式右侧的矩阵是由两个行向量组成的。矩阵中,第一个行向量表示怪蜀黍两次组合中分别先拿什么,第二个行向量表示两次组合中分别后拿什么。等式右侧的权重(行向量)的第一个因素对应着矩阵中第一个行向量的个数,第二个因素表示右侧第二个行向量的个数。这样保持矩阵中每个行向量内部因素的比例,完成矩阵内向量与向量之间的组合。向量乘矩阵可以是矩阵中各个行向量的多个有顺序的组合而向量中的每个因素都可以当成是因素个数为一个的向量,也再次解释了为什么,向量可以看成是矩阵。在(eq.6)中,你会发现,要形成组合的向量被拿到了乘法点(dot)的左边,而权重被拿到了右边。因为当行向量的因素作为组合成分时,乘法点右侧的矩阵(向量)装有着权重信息。效果是拿一个penpineapple和一个applepen形成组合。 从中你可以看出矩阵乘法并不满足乘法交换律,因为交换了两个矩阵的位置,就交换了权重与要形成组合的向量的位置。矩阵乘法不满足乘法交换律:commutative law: AB =! BA矩阵乘矩阵如果怪蜀黍跳了两遍舞蹈。第二遍跳舞时,他在两次组合时,后一次拿的东西都是都拿两个,那么我们就可以把等式右侧的行向量变成两个行向量,也就形成了一个矩阵。那怪蜀黍在唱第二遍时,就要唱: I have a pen. I have two apples. 2-Apples-pen! I have a pen. I have two pineapples. 2-Pineapples-pen! 那该蜀黍就有卖水果的嫌疑,每次都拿两个水果。 至此你看到了我用的是2*pineapple +pen方式去形成组合。也就是只有乘法来控制数量,加法来组合不同向量。这样的组合方式才是线性代数讨论的组合,即线性组合。所以我们所有概括的结论中,所有组合前面都要加上线性二字。同时乘法所乘的数属于什么数要事先规定好(经常被规定为是实数,也有虚数域)。不过这还没有结束,严谨性是数学的特点。我上文所说的“加法”“乘法”也只不过是一个名字而已。它们到底指的是什么运算,遵循什么样的规则。然后当你看线性代数教材的时候,你就会发现这8条规则。..There is a unique “zero vector” such that
for all x.For each x there is a unique vector
such that .....然而你不需要去记它们。你只需要知道,他们是用于描述和约束在线性代数中的加法,乘法的运算。特别要注意的是,这些运算都有一个原点(0),为了允许正负的出现。线性组合:一组向量乘上各自对应的一个标量后再相加所形成的组合。(满足上述对乘法、加法的规则)当我们再用(m by n),即m行n列的方式去描述一个矩阵的形状(shape)时,你就得到了矩阵的第一种描述:矩阵的静态信息坐标值与坐标系:矩阵所包含的信息从来都是成对出现,拿向量举例来说,这个向量并没有被赋予任何数值。但你已经确定了你要在apple的数量和pen的数量的两个因素(两个维度)下描述你的数据。换句话说,你已规定好你的坐标系。所以当你写出任何具有实际数值的向量,例如时,他们的坐标系(二维向量空间)和坐标值就同时被确定了。它实际上是和的缩写。二者无法分割。即使是,虽然我没有再pen,apple前面写具体数字。但依然包含所有因素间的比例相同的隐含信息。而调换2和1的顺序同时也表示坐标轴之间的调换。坐标值的两种看法:单单考虑坐标值时,有两种角度去理解矩阵所包含的静态信息。矩阵的静态坐标值信息:(1)若干个维度相同的要形成组合的向量信息 (2)若干组维度相同的权重信息他们本质都是向量,然而(2)中所指的向量(或叫权重)是用于控制每个向量的数量(scale),而(1)中的所指的向量是要通过乘法与加法的线性组合形成新向量的向量。拿矩阵来说,你可以理解成该矩阵包含了两个行向量,也可以理解为包含了两组权重;同时,用列向量的方式也同样可以理解成向量和权重。矩阵的动态信息在一个矩阵内,你把矩阵内的向量理解为向量或权重都可以。但是当两个矩阵进行矩阵乘法时,一旦选择以权重信息理解其中一个矩阵,另一个矩阵的信息就会被瞬间确定为要形成组合的向量(量子力学的味道)。举例来说,它的实际数学表达应该是: ,即便是都换成了数字,其物理意义任然存在,始终并未丢失。但也可以被理解为其他的物理意义。我会在与二者之间进行切换,他们表示同一个矩阵。 当我把矩阵看成是两组行向量的权重时,后一个矩阵的两个行向量和就瞬间被赋予了要形成组合的向量的观察方式。 当我把矩阵看成是两组列向量的权重时,前一个矩阵的两个列向量和就瞬间被赋予了要形成组合的向量的观察方式。矩阵的动态信息,两个矩阵相乘A?B 时, 当把前者矩阵(A)中行向量理解成若干组权重,后者矩阵(B)中的行向量就是要形成组合的成分。同样的两个矩阵相乘当把后者矩阵(B)中列向量理解成若干组权重,前者矩阵(A)中的列向量就是要形成组合的成分。注意对应行向量与列向量。 请回想线性组合的描述(一组向量乘上各自对应的一个标量后再相加所形成的组合),这是因为向量的维度和权重的维度要一一对应。所以,矩阵A(m by n)和矩阵B(p by q)能够做乘法的条件是 n = p向量空间很多线性代数教材所引入的第一个概念就是线性空间(linear space)。可见它的地位。虽然它有些抽象,但是却是自然而然推演出来的一个概念。 空间的本质是集合。而且是一个能够容纳所有你要描述内容的集合。 在具体讨论之前先要对上句话中“你要描述的内容”进行进一步说明。 从如何理解线性代数这四个字开始。首先我们已经知道了什么是线性(那8个条件约束的加法和乘法)。那什么是代数?意思是指你可以把任何概念都代入其中。 可以怪蜀黍手中的水果和笔换成盆和大菠萝。也可以换成任何宇宙上有的物体。然而不仅仅是物体,甚至可以是一个抽象的概念。我个人最喜欢的描述是:向量空间是描述状态(state)的线性空间。再加上之前的约束,于是我们就有了向量空间是能够容纳所有线性组合的状态空间那什么样的空间(所有状态的集合)能够容纳所有的线性组合? 如果说,我现在想要描述的你的两个状态(下图中的行向位置,和纵向位置),向量的维度就是二维。那么一个大圆盘够不够容纳所有的线性组合?答案是不够。 因为线性组合是一组向量乘上各自对应的一个标量后再相加所形成的组合,而这个标量是实数域的时候,由于实数域无线延伸,那么乘以标量后的状态也会无限延伸。所以向量空间一定是各个维度都像实数轴一样可以无线延伸。最终你得到的将不会是一维下的线段,二维下的圆盘。而一定是一维下的无限延伸的直线,二维下的无限延伸的平面。 因为线性组合是一组向量乘上各自对应的一个标量后再相加所形成的组合,而这个标量是实数域的时候,由于实数域无线延伸,那么乘以标量后的状态也会无限延伸。所以向量空间一定是各个维度都像实数轴一样可以无线延伸。最终你得到的将不会是一维下的线段,二维下的圆盘。而一定是一维下的无限延伸的直线,二维下的无限延伸的平面。 向量空间的基本特点是各个维度都可以无限延伸。 我之所以用状态二字,是因为刚才的两个维度,我可以用于描述你的速度和体温。这时,这两个维度所展开的依然是一个平面,但却又不是描述位置的平面。子空间子空间(subspace)可以被想成是向量空间内的空间,同样要满足能够容纳线性组合的条件 那么最小的子空间是什么?只有一个状态的空间(集合)。而这个状态不是其他状态,就是0。只有这样才可以在乘以完一个标量后依然不会跑出空间外部。(因为跑出去了,我们就不得不扩大空间来容纳它)。其次空集可不可以是向量空间?不可以,空集是没有任何元素的集合,既然什么状态都没有,又怎么能够容纳线性组合。最小的向量空间是只包含零向量的空间假如上图的圆盘是一个无线延伸的平面,那么这个平面的子空间就是那个平面上所有直线吗?不是,8个运算规则中明确规定了,一定要有原点,这样才可以包含正负。所以这个平面的子空间是所有过原点的直线,并且包括中心的那个原点自己所组成的最小子空间,同时也包括这个平面自身(最大的子空间)线性无关s你会发现,在怪蜀黍的例子中,当要把可以把(eq.1)(eq.2)合二为一表示为(eq.4)时,是这个样子:
(eq.4) (eq.4)最右侧的向量并不是4个维度。而是三个。因为pen 和pen是一个东西。我们想用的是若干个毫不相关的因素去描述状态。这里的毫不相关是在线性空间下的毫不相关,所以叫做线性无关。那么当我们要描述的状态是由向量来描述时怎么办?我们知道判断两个向量是否线性无关是,可以看他是否在空间下平行。但怎么判断几个向量之间(不一定是两个)是否线性无关?我们需要可靠的依据。这也是数学为什么要证明,它要让使用者知道某个性质在什么条件下适用,什么条件下又不适用。线性无关(linearly independent): 当表示权重,表示向量时, 只发生在当 全都等于零时。 换句话说,这些向量不可以通过线性组合形成彼此。形成彼此的情况只能是他们都是零向量。张成明白了线性无关后,张成(spanning)就十分容易了,接下来要注意的是词的属性和关联词。 张成(spanning)是一个动词,而动词的主语是一组向量(a set of vectors)。描述的是一组向量通过线性组合所能形成子空间。是个动词,描述的内容并不是形成的这个空间,而是形成的这个行为。,就可以看成是4个向量,这4个向量,可以张成一个三维空间。(因为有两维线性相关,所以并不能张成4维)基(基底)基底也是建立在张成的基础上理解的。一个向量空间的一个基底(A basis for a vector space V)是一串有顺序的向量(a sequence of vectors),满足: A、向量之间彼此线性无关 (不可多余) B、这些向量可以张成向量空间V (不可过少) 换句话说,刚刚好可以张成向量空间V的一串向量是该向量空间V的一个基底基底是一个类似people的复数名词,是从属于某个空间的,而不是矩阵,也不是向量。维度一个向量空间可以有无数个基底。但每个基底所包含的向量的个数(the number of vectors in every basis)是一个空间的维度。注意,维度是空间的概念,而不是描述一个具体的向量。人们常说的n维向量实际是指n维向量空间内的向量,由于在讨论时并未给向量指定任何实际的数值,所以可以是任何值,可以张成整个空间。所以其真正描述的依旧是一个空间。并且,选择的维度是一个站在观察者角度,希望在某个向量空间下可以尽可能的描述一个物体的状态而选择的,并不一定是被描述者真实处在的空间。数学就是这么“拐外抹角”的去描述一个概念,不过确实非常有必要。但若是你觉得理解起来有困难。就简单记住:互不相关的因素的个数是一个向量空间的维度。秩秩(rank)是矩阵的概念。指的是一个矩阵的所有列向量所能张成的空间的维度。矩阵的所有列向量所张成的空间叫做列空间(column space) 矩阵的所有行向量所张成的空间叫做行空间(row space) 一个矩阵的列空间的维度是这个矩阵的秩,同时也等于该矩阵行空间的维度 秩是用于描述矩阵的包含的信息的转置一个矩阵可以理解为调换一个矩阵的行空间与列空间。 单位矩阵可以被理解为行空间与列空间相同。线性变换线性变换(linear transformation)可以说是最最重要的概念了。你可以忘记我上面描述的所有内容,但不可以不深刻理解线性变换。下面是关于什么叫变换。由于概念很重要,我先不用逗比例子来解释。而用比较抽象的描述。 一个从n维实数域()到m维实数域()的变换(transformation or mapping or function)是将n维实数域()空间下任意一个向量转换成为在m维实数域()空间下对应向量其中n维实数域()空间叫做变换T的domain,m维实数域()的空间叫做该变换的codomain。向量叫做向量的image(变换T行为下的)所有image组成的集合叫做变换的range而线性变换是是指线性规则所造成的变换,是由一个矩阵来实现的。此时你就会看到无处不在的式子: :列向量左乘一个矩阵后得到列向量(eq.4)举例来说, 是三维空间的向量(即的domain是三维),而经过线性变换后,变成了二维空间的向量(即的codomain是二维)。矩阵可以被理解成一个函数(function),将三维空间下的每个向量投到二维空间下。 也可以理解为x经由一个动因,使其状态发生了改变。 同时也是深层神经网络每层变换中的核心:在机器学习中你会你会需要构架一个虚拟的世界,并选择合适的、用于描述某个事物状态的各种因素。 线性代数是有关如何构架“世界”的学问。矩阵又是存储着所架构的世界的信息的媒介。举一个小小的例子,比如你想通过温度,气候,湿度,当天时间,海拔,经度,纬度等信息来描述天气状况,从而进行预测是否会下雨。你如何合理的选择这些信息?你如何知道这些信息,海拔和气候如是否相关,是否重复?如果重复,那么你又是否可以减少某个信息?判断的准则又是什么?数学讲的是我刚才所描述的内容的纯粹的结构关系。请你忘记我给你举得怪蜀黍例子,抓住“逻辑框架”。当你可以把这种关系应用在任何符合该结构关系的现实现象中时,你就算是精通了如何应用数学。线性代数的内容十分庞大,行列式,特征向量,奇异值分解等你也会经常用到。然而我的描述就到此为止,我无法涵盖所有内容。写这篇文章只是希望能够用你脑中已有的概念帮助你构建一个对线性代数模糊的认识。当你今后用到线性代数时,再不断的加深和更正此刻的理解。
线性代数研究的是线性空间问题,只要这个问题域和解在线性空间中,就能使用线性代数。从图形学角度说,线性代数强大的地方有很多:1.齐次空间的丰富含义,仿射矩阵,升降维度等等2.矩阵变换在算法推导中的应用,很多数学推导回归线性空间时,采用矩阵表达式3.向量是数据,矩阵封装了对向量的变换。通过矩阵乘法,你可以把数据和操作看成一类东西,编程中也有这种思想4.强大的计算工具,同时计算所有维度的解,跟程序中的POD配合很好还有很多很多……
同济的线性代数教程我当年大二觉得自己学的很透,每一章课后习题基本也都做完了,当时觉得自己很牛逼,考试的时候应该也是全年级第一吧97。然而!然而!当我来到美国后,我发现我特么跟傻逼一样,大部分的线性代数我居然看不懂,就比如连特么多维高斯分布里面居然会带着矩阵,这个公式的物理意义和怎么跟一维高斯分布联系起来我一点都不知道。所以我又用了不到一年的时间去听了youtube上MIT的视频,之后还修了我们学校数学系的应用线性代数,拿了A+,但因为是本科课所以课上要求也不高。综上,我觉得老师和材料很重要。一般的国内的大学(top10除外)教的线性代数的知识仅仅为工业界需要用的20%-30%,而美国课上所交为70%-80%,国内老师的作业难度为15%左右,考试难度为15%;而美国作业难度接近90%,考试难度50%-70%。以上均为我个人经历,大家只做个参考吧。中国讲课偏重计算,因为老师的学术水平或讲课技巧不够,还有教材水平稍低,毕竟大部分老师没有参与过类似matlab顶级实验室的线性代数运算函数的设计,没有什么高端的经验,所以有可能老师自己都不知道知识用来干什么的,知识最重要的点永远不在计算,因为计算可以说完全是体力输出,我们学习的重点应该永远在于思维和素质的培养。就像MIT Gilbert Strang讲的线性代数,我觉得作为一个本科生,如果你能把一个2x2的矩阵的性质搞得差不多透,你的本科的线性代数就是成功的了,已经为你不论在工业界还是学术界都打下了坚实的基础。我下面给出自己的愚见,你可以看看自己是否能回答上我的问题。1. AB=C 这个式子可以有几种计算方法实现(我现在知道4种,我本科只学了一种,后面三种你不懂可能就不容易理解向量空间和SVD)2. 任意一个矩阵A,它的四大子空间col space, row space, null space, left null space分别是什么维度,如何去求它们的基底,代表什么物理意义,各个子空间什么关系,怎么应用东西太多了,我就先说这两个最基本的吧。希望你有所收获。
已有帐号?
无法登录?
社交帐号登录

我要回帖

更多关于 线性代数伴随矩阵 的文章

 

随机推荐