概率论JS散度衡量距离什么通信原理知识点总结?两个分布不同等于一是如何让得到的

不骄不躁,不屈不挠;严于律己,宽以待人
【机器学习】ICA 原理以及相关概率论,信息论知识简介
看完了sparse coding,开始看ICA模型,本来ng的教程上面就只有一个简短的介绍,怎奈自己有强迫症,爱钻牛角尖,于是乎就搜索了一些ICA的介绍文章(都是从百度文库中搜来的),看完之后感觉这个略懂一二,遂写文以记之,一为加深印象,二为分享交流。
IndependentComponent Analysis 又名独立分量分析。
ICA是20世纪90年代发展起来的一种新的信号处理技术,它是从多维统计数据中找出隐含因子或分量的方法。从线性变换和线性空间角度,源信号为相互独立的非高斯信号,可以看作线性空间的基信号,而观测信号则为源信号的线性组合,ICA就是在源信号和线性变换均不可知的情况下,从观测的混合信号中估计出数据空间的基本结构或者说源信号。
二:ICA模型介绍
2.1.Blind Signal Separation, BSS问题
BSS问题,即盲信号分离问题,是信号处理中一个传统而又极具挑战性的课题。BSS是指仅从观测的混合信号(通常是多个传感器的输出)中恢复独立的源信号,这里的“盲”是指:1.源信号是不可观测的;2.混合系统是事先未知的。在科学研究和工程应用中,很多观测信号都可以假设成是不可见的源信号的混合。所谓的“鸡尾酒会”问题就是一个典型的例子,简单说就是当很多人(作为不同的声音源)同时在一个房间里说话时,声音信号由一组麦克风记录下来,这样每个麦克风记录的信号是所有人声音的一个混合,也就是通常所说的观测信号。问题是:如何只从这组观测信号中提取每个说话者的声音信号,即源信号。如果混合系统是已知的,则以上问题就退化成简单的求混合矩阵的逆矩阵。但是在更多的情况下,人们无法获取有关混合系统的先验知识,这就要求人们从观测信号来推断这个混合矩阵,实现盲源分离。
经典的鸡尾酒宴会问题(cocktail party problem)。假设在party中有n个人,他们可以同时说话,我们也在房间中一些角落里共放置了n个声音接收器用来记录声音。宴会后,从n个麦克风中得到一组数据Xi(Xi1,Xi2,……Xin)i=1,2……m,i表示采样的时间顺序,也就是说共得到了m组采样,每一组采样都是n维的。我们的目标是单单从这m组采样数据中分辨出每个人说话的信号。
问题总结:
ICA的目的是对任何t,根据已知X(t)的在A未知的情况下求未知的S(t),ICA的思路是设置一个n*n维反混合阵W,经过变换后得到n维输出列向量Y(t)=[y1(t),y2(t),……y3(t)],即有 :
Y(t)=W*X(t)=W*A*S(t)
基本独立分量分析的线性模型还有一些假设;例如1,信号源之间相互统计独立;2,信号源中最多有一个是高斯分布;3,观测信号的数目和信号源的数目相等等。完整假设请参看文末的参考文献。
三:模型转化
通过上面的分析可知,已知混合信号X,来寻找分离矩阵W,然后计算WX来找到Y,即原始信号S的估计值。
在模型中我们假设各个信号S间是相互独立的,所以我么求解得到的Y的分量间也是相互独立的,所以在未知A,W,只有观测数据X的情况下,我们通过度量Y各个分量间的独立性,来评判求解结果的好坏。Y的各分量独立性越好,说明Y越接近S的真实值,此时的分离矩阵W也越好。
这样盲源分离问题就变成了,一个优化问题,已知数据X,随机初始化一个分离矩阵W;通过变换WX的到Y,要求Y各个分量间相互独立;通过度量Y分量间的独立性,来寻找最好的分解矩阵W。如图所示
ICA算法分为两个部分,1优化判据;2,寻优算法
这里先说一下这个简略介绍的寻优算法,其实有时寻找目标函数最优值的算法,例如经典的梯度下降算法等,由于这里重点介绍ICA模型,所以寻优算法简略提一下。
下面就来介绍ICA的精髓部分,就是优化判据,就是判断结果好不好的依据,那么在ICA中,根据我们的介绍我们的判据就是Y各个“分量间相互独立性”。那么如何度量Y变量之间的相互独立性呢?
度量变量之间的相互独立性,这里分为两种方法,一种是通过统计中特征值来度量,例如四阶中心距,峭度(kurt)等,一种是通过信息论中熵的概念来度量。
在详细介绍度量之前先介绍一些相关的引理,先吃一些饭前的辅餐,然后再来消化后面的饕餮大餐。
四:基础知识介绍
4.1 概率论基本知识
线性变换下两个pdf(probability density function,概率密度函数)之间的关系
设X为n维随机向量,其pdf为p(X)。线性变换Y=WX,W为满秩n*n维矩阵。这样,Y也是n维随机向量,其pdf为p(Y)。这两个随机向量的pdf之间满足下列关系:
其中是的行列式,注意下式成立:
非线性变换下两个pdf之间的关系,若Y=g(X),其中g(.)为非线性变换函数。需要计算g函数的雅克比矩阵来变换p(X)和p(Y)之间的关系,在此不详述。
众所周知,如上图高斯分布函数(正态分布函数);高斯信号可由其一、二阶统计量(均值和方差)唯一确定,而传统的信号处理方法是把信号假设为高斯分布。但是在实际中,纯粹的高斯信号很少见,所以这种假设在很多情况下并不满足。传统信号处理方法中常用的分析工具是相关和功率谱这些二阶统计量,而与之相对应,非高斯信号处理则以诸如累积量这样的高阶(阶数大于二)统计量为主要的分析工具。下面简单介绍一下与ICA方法联系密切的高阶统计量方面的基本知识,包括高阶矩和高阶累积量。
对于单个随机变量x,所谓矩是描述随机变量性质的一种统计量,它是一系列依赖于概率密度函数的描述性的离散参数。
式中,Ux(K)表示第阶k(原点)矩。很显然,一阶矩Ux(1)=E{x}=Mx是x的均值。而x的中心矩则是用来描述对均值Mx而言的分布特性的一系列参数。
当均值为零时,k阶中心矩和k阶原点矩是等价的。对实际的样本数据而言矩的估计方法非常简单,所以具有很高的实用性。二阶中心矩是指方差,反映了信号的能量;三阶中心矩度量了概率密度函数关于均值处的不对称程度。具有对称分布的概率密度函数其三阶中心矩为零。四阶中心矩被用来度量概率分布的峭度。通常简记为。
4.4信息论知识
信息论中,熵通常是用来衡量信源发出每一个消息的平均不确定度,概率愈小的消息带来的信息量愈大,熵也就愈大。连续情况下,对于一个随机变量x,如果它的密度函数为p(x),则x的熵定义为:
用数学期望的形式来表示则为H=E{ln(1/p)}=-E{ln(p)}。值得指出的是,在所有的连续概率密度函数中,如果均值Ux和方差sigma^2都取已知的固定值,则使熵达到最大值的将是高斯分布,此时的最大熵为H=0,5+log(2,sqrt(2*pi*sigma)) (比特)。
4.4.2 联合熵
可以把定义推广到随机矢量的联合微分熵:
为将熵应用在ICA算法中,下面考虑可逆的线性变换对联合熵的影响。对于具有联合密度函数px(X)的n维随机变量X=[X1,X2..Xn],以及一个非奇异矩阵W,得到联合密度函数py(Y)的n维随机变量Y=[Y1,Y2..Yn]。由概率论可知:
根据熵的定义,于是可得:
进一步写成:
上式意味着可逆的线性变换对随机矢量联合熵的影响是增加了一个常数项,如果这个线性变换是一个正交变换,满足det(W)=1,则有:
所以得到一个更加重要的结论是:多维分布经过坐标系的旋转后联合微分熵保持不变.
4.4.3 相对熵
假设对同一个随机矢量X,有两种可能形式的概率分布p(x)和q(x)。为了衡量这两个分布之间的距离,定义相对熵(或称作“Kullback-Leibler距离”,是一个与“交叉熵”,“信息散度”和“判别信息量”的概念密切相关的量)。连续情况下的相对熵定义为:
4.4.4 负熵(高斯分布熵和其他分布熵的相对熵)
概率论中的中心极限定理这一经典理论告诉我们:在一定条件下,多个独立分布的和的分布趋向于高斯分布。将该理论应用到ICA问题里可以得出这样的结论:观测信号是多个独立源信号的线性组合,所以其高斯性比源信号的高斯性强,换句话说,源信号的非高斯性比观测信号的非高斯性要强。粗略地讲就是,非高斯性愈强就愈独立。这就启示我们将非高斯性作为ICA的一个判据。除了峭度可以用来表征非高斯性外,负熵是度量非高斯性的一个更加稳健的判据。
在定义负熵之前先给出信息论中的一个结论,即所谓的熵极大定理:在所有具有相同协方差矩阵的分布中,高斯分布的熵最大,简单运用K-L散度的性质便可以证明这个定理(详细见参考文献)。在一定的限制条件下,可以找到一个特定的分布具有最大的信息熵。而上述定理中的这个特定的分布恰好是高斯分布。
负熵的概念因此产生。负熵定义为:
pG(x)和p(x)具有相同协方差阵的高斯概率密度函数。有负熵的定义可以得出,负熵J(x)&=0,当且仅当p(x)也为高斯分布时,J(x)=0.
负熵的一个重要性质是:对于可逆的线性变换保持不变。显然,与熵对于正交变换(det(W)=1)保持不变相比负熵需要的条件更加宽松。该性质使得可以将边缘J(Yi)负熵作为代价函数,然后寻找线性变换W使其最大化。这就导致了ICA算法中负熵判据的有效性。
4.5互传信息量
互信息(Mutual Information,简称MI)是用来度量随机变量之间独立性的基本准则,互信息可以表示成K-L散度的形式。多个随机变量之间的互信息定义为其联合概率密度函数与各边缘密度函数乘积之间的K-L散度,即:
将上式右边继续展开:
由于K-L散度的非负性可知:
容易看出,当X=[X1,X2....Xn]的各个分量相互独立时,即有时,互信息I(x)=0。
得出一个重要结论:I(x)&=0,当且仅当各个分量相互独立时等号成立。进一步观察,各分量边缘熵的和总是大于或等于所有分量的联合熵,而多出的那部分恰好是各分量的互信息。那么互信息可以描述为由于各个分量之间的相互依赖关系带来的信息的冗余。
参考文献:
1 言简意赅的ppt:
2 基础知识原文:
ICA 独立成分分析
独立成分分析ICA系列2:概念、应用和估计原理.
ICA 原理以及相关概率论,信息论知识简介
模式识别与机器学习(一):概率论、决策论、信息论
机器学习中的概率和信息论
实数域FASTICA算法讲解及matlab源码
【机器学习】ICA算法简介
机器学习中概率论知识复习
机器学习预备知识之概率论(上)
没有更多推荐了,KL散度与极大似然
极大似然估计是一种概率论在统计学中的应用,建立在极大似然原理的基础上,极大似然原理的直观解释是:一个随机试验如有若干个可能的结果A、B、C、…,若在一次试验中,结果A出现,则一般认为试验条件对A出现有利,也即A出现的概率很大,那么就取参数估计,使A出现的概率最大。
设随机变量Y具有概率密度函数,θ是参数向量。当我们得到Y的一组独立观测值时,定义θ的似然函数为。极大似然法是采用使L(θ)最大的θ的估计值作为参数值。
为了计算方便,我们通常求使最大的θ的估计值,这与L(θ)最大是等价的,由于,当,几乎处处有
在观测样本已知的情况下,N是定值,那么,极大似然估计是使最大的θ的估计值。若Y的真实分布的密度函数为g(y),我们有
衡量两个分布g(·)和f(·|θ)差异性的统计量KL散度(或者相对熵)为:
只有当g(y)等于f(y|θ)时,KL散度才为0,因此,当随机变量Y给定时,为定值,最大化,就是最小化,即求最近似于g(y)的f(y|θ)。这个解释从信息论的角度透彻地说明了极大似然法的本质。
KL-divergence,俗称KL距离,常用来衡量两个概率分布的距离。
根据shannon的信息论,给定一个字符集的概率分布,我们可以设计一种编码,使得表示该字符集组成的字符串平均需要的比特数最少。假设这个字符集是X,对x∈X,其出现概率为P(x),那么其最优编码平均需要的比特数等于这个字符集的熵:
H(X)=∑x∈XP(x)log[1/P(x)]=-∑x∈XP(x)log(p(x))
在同样的字符集上,假设存在另一个概率分布Q(X)。如果用概率分布P(X)的最优编码(即字符x的编码长度等于log[1/P(x)]),来为符合分布Q(X)的字符编码,那么表示这些字符就会比理想情况多用一些比特数。KL-divergence就是用来衡量这种情况下平均每个字符多用的比特数,因此可以用来衡量两个分布的距离。即:
DKL(Q||P)=∑x∈XQ(x)[log(1/P(x))] - ∑x∈XQ(x)[log[1/Q(x)]]=∑x∈XQ(x)log[Q(x)/P(x)]
由于-log(u)是凸函数,因此有下面的不等式
DKL(Q||P) = -∑x∈XQ(x)log[P(x)/Q(x)]
= E[-logP(x)/Q(x)] ≥ -logE[P(x)/Q(x)] = -log∑x∈XQ(x)P(x)/Q(x) = 0
即KL-divergence始终是大于等于0的。当且仅当两分布相同时,KL-divergence等于0。
===========================
举一个实际的例子吧:比如有四个类别,一个方法A得到四个类别的概率分别是0.1,0.2,0.3,0.4。另一种方法B(或者说是事实情况)是得到四个类别的概率分别是0.4,0.3,0.2,0.1,那么这两个分布的KL-Distance(A,B)=0.1*log(0.1/0.4)+0.2*log(0.2/0.3)+0.3*log(0.3/0.2)+0.4*log(0.4/0.1)
这个里面有正的,有负的,可以证明KL-Distance()&=0.
从上面可以看出, KL散度是不对称的。即KL-Distance(A,B)!=KL-Distance(B,A)
KL散度是不对称的,当然,如果希望把它变对称,
Ds(p1, p2) = [D(p1, p2) + D(p2, p1)] / 2
深度学习(六十六)生成模型、最大化似然、KL散度
KL散度的理解
最大似然估计,交叉熵,相对熵(KL散度)
DeepLearning学习笔记——极大似然估计
相对熵(KL散度)
熵、交叉熵、相对熵(KL 散度)意义及其关系
KL散度(相对熵,信息增益)学习笔记
Kullback–Leibler divergence(相对熵,KL距离,KL散度)
初学机器学习:直观解读KL散度的数学概念
KL 散度,相对熵
没有更多推荐了,信息论——KL\JS\Wasserstein - 简书
信息论——KL\JS\Wasserstein
1.KL散度(Kullback-Leibler divergence)
在概率论或信息论中,KL散度( Kullback–Leibler divergence),又称相对熵(relative entropy),是描述两个概率分布P和Q差异的一种方法。它是非对称的,这意味着D(P||Q) ≠ D(Q||P)。特别的,在信息论中,D(P||Q)表示当用概率分布Q来拟合真实分布P时,产生的信息损耗,其中P表示真实分布,Q表示P的拟合分布。
有人将KL散度称为KL距离,但事实上,KL散度并不满足距离的概念,因为:
1)KL散度不是对称的;
2)KL散度不满足三角不等式。
由于对数函数是上凸函数,所以:
所以KL散度始终是大于等于0的,当且仅当两分布相同时,KL散度等于0。
2.JS散度(Jensen-Shannon)
JS散度相似度衡量指标。现有两个分布P1和P2,其JS散度公式为:
3.Wasserstein距离
Wasserstein距离又叫Earth-Mover距离(EM距离),用于衡量两个分布之间的距离,定义:
Π(P1,P2)是P1和P2分布组合起来的所有可能的联合分布的集合。对于每一个可能的联合分布γ,可以从中采样(x,y)~γ得到一个样本x和y,并计算出这对样本的距离||x-y||,所以可以计算该联合分布γ下,样本对距离的期望值E(x,y)~γ[||x-y||]。在所有可能的联合分布中能够对这个期望值取到的下界infγ~Π(P1,P2)E(x,y)~γ[||x-y||]就是Wasserstein距离。
直观上可以把E(x,y)~γ[||x-y||]理解为在γ这个路径规划下把土堆P1挪到土堆P2所需要的消耗。而Wasserstein距离就是在最优路径规划下的最小消耗。所以Wesserstein距离又叫Earth-Mover距离。
Wessertein距离相比KL散度和JS散度的优势在于,即使两个分布的支撑集没有重叠或者重叠非常少,仍然能反映两个分布的远近。而[js散度在此情况下是常量,KL散度可能无意义。
根据Kantorovich-Rubinstein对偶原理,可以得到Wasserstein距离的等价形式:
越出舒适区~
在GAN的相关研究如火如荼甚至可以说是泛滥的今天,一篇新鲜出炉的arXiv论文《Wasserstein GAN》却在Reddit的Machine Learning频道火了,连Goodfellow都在帖子里和大家热烈讨论,这篇论文究竟有什么了不得的地方呢? 要知道自从2014...
请听题:什么是熵?什么是交叉熵?什么是联合熵?什么是条件熵?什么是相对熵?它们的联系与区别是什么? 如果你感到回答这些问题有些吃力,对这些概念似乎清楚,似乎又没有那么明白,那这篇文章就是为你准备的。 1 从随机变量说起 假设有一枚硬币,将其抛出,落下后朝上的面为y。 这里的...
摘要:在深度学习之前已经有很多生成模型,但苦于生成模型难以描述难以建模,科研人员遇到了很多挑战,而深度学习的出现帮助他们解决了不少问题。本章介绍基于深度学习思想的生成模型——VAE和GAN,以及GAN的变种模型。 在深度学习之前已经有很多生成模型,但苦于生成模型难以描述难以...
本系列第三篇,承接前面的《浅谈机器学习基础》和《浅谈深度学习基础》。 自然语言处理绪论 什么是自然语言处理? 自然语言处理是研究人与人交际中以及人与计算机交际中的语言问题的一门学科。自然语言处理要研制表示语言能力和语言应用的模型,建立计算框架来实现这样的语言模型,提出相应的...
【概述】 SVM训练分类器的方法是寻找到超平面,使正负样本在超平面的两侧(分类正确性即“分得开”),且样本到超平面的几何间隔最大(分类确信度即“分得好”)。 每个样本点xi的几何间隔至少是γ,要求γ首先是&0(分类正确),然后尽力求γ的最大值(分得好,要γ&1)。
第12天·21天OH卡美颜瘦身课 #玩卡不卡·每日一抽# 每一位都可以通过这张卡片觉察自己: 1、直觉他叫什么名字?豆 2、他几岁了?20岁 3、他现在是什么状态?很精神.有正气的感觉 4、他有什么愿望吗?没 5、他有话跟你讲吗?没 6、如果有,讲什么? 7、如果用一个词来...
二人高兴了一会儿,就迅速的冷静了下来。玫瑰起身,李齐坐下来,分析新增粉丝的趋势,这些多数是今天刚注册的账号,男女都有,岁数在25~35岁之间居多,45岁以上的也占了两成左右。 看到此,李齐说,“这有可能是中际在删除视频平台的评论引起的连锁反应。大家不服气评论被无故删除,转而...
人生都会会有低谷,既然叫做“谷”,那么一定会有个渐入渐出的过程,时间有长有短。如何从人生低估中恢复,是另一个话题。 今天说的是另一种状态,即断崖式的颓废。比如某一天或某个时间段,你突然什么都不想做,突然万念俱灰。之所以是断崖式的,就是因为来的太突然,可能都找不到什么理由。如...
JavaScript 中,万物皆对象!但对象也是有区别的。分为普通对象和函数对象,Object ,Function 是JS自带的函数对象。 怎么区分?其实很简单,凡是通过 new Function() 创建的对象都是函数对象,其他的都是普通对象。Function Objec...
今天抽时间把九型性格音频全部听完一遍,原来人的性格还有这么多种,各有其长处和需要优化的地方,了解这些对于认识自己,发现自己,与不同性格的人交往都非常有帮助。不过还不知道自己是几号性格,这需要不断去学习体验,找到自己的长处及需要优化的地方,敢于发现自己的不足。 今晚听了佳娃老...2.6K190 条评论分享收藏感谢收起zhihu.com/lives/9551076?utm_source=qq&utm_medium=social将在2018年4月知乎live直播后新增辅导研究生考试过程中总结的数学学习方法。新增加第零点 分享录取的喜悦,感谢大家的点赞。由于这个问题是主要讲数学的,所以以下回答均为数学复习方法。--------------------------------------------------------------------------零、分享录取的喜悦辛苦了半年就为了这张薄薄的纸,不过一切努力都报偿的感觉真的很棒。饮水思源,爱国荣校。感谢这小半年里那些为了我的选择、有过付出以及关心我的人!--------------------------------------------------------------------------17考研数学一141分,专业排名第二,复试后排名第一,现上海交大硕博连读。虽然初试专业第一数学一满分(仰望高端玩家),但我觉得就我自己复习的时间和花费的心力,这个分数算相当好看了。我是从事人工智能研究的,每次在知乎看到别人教小白入门都是推荐一大堆书给小白。才开始复习,我觉得就应该不买或者少买资料,那么多资料你知道先看谁么?只谈资源不谈方法的学习,难以起到好的效果。这里强烈推荐第一轮复习就一本教材或者看视频+一本笔记本就够了,其他资料的购买和使用等你能保证第一轮质量以后再说。当然,抛开知识本身和看视频学习与否,不谈成功学,其实我可以谈一谈我的学习方法。该方法合适数学和绝大多数专业课。一、书到底在讲什么?内在逻辑又是什么?虽然高等数学上下册也就在讲微分和积分,但对于考试来说是围绕知识点开展的。举一个下册偏导的例子,偏导一共考察五个概念(别指望我告诉你,回头自己翻书去)。这时候很多人就会问:什么?五个?你怎么知道?好多人复习的时候并不会注意知识之间的框架,这就导致永远在做“新”的题目。去年我在做张宇4+8的时候,就有感触。同学大多做的很惨,因为他们拉起题目就开始做了,根本不考察一下题目到底在考你什么。这时候梳理基本概念的逻辑框架就尤为重要了。在开始复习的时候,你可以有很多类积分不会算,但你不可以不知道这道题的积分属于哪种类型。其实想想自己做题都不知道在做什么,只是机械的动笔,这件事本身是很可怕的。同理,专业课的复习也是如此。我就举我考的专业课的例子来简单说明。举例:拿自动控制理论基础这门考研专业课来说,一本书说白了就是讲怎么建模,然后用N种方法去分析模型。那么,第一轮复习就可以看书总结,把每种方法的分析过程和思路过一遍。最后拿张纸自己一边想一遍画思维导图,这为我的复习节省了大量的时间和精力。二、笔记不是用来看的,而是用来默写的很多同学都会去看张宇的视频,视频一遍又一遍的看,就是记不住。关于这个,我觉得张宇本人说的就很对,笔记不是用来看的,而是用来默的。我的笔记本上没有答案,只有题目。我的第一轮是整理思路,第二轮就是默写笔记。把所有题目对号入座默写下来。这一轮可能略枯燥,但意义重大。我根本不期待出现原题(如果出现了就闷骚发大财吧),而是要期待自己慢慢渗透数学思维。到了后期,自己都可以编题目来做,可以无情嘲讽张宇编的题目还没自己的好。这个思路也很符合专业课复习,因为很多学校专业课题目是根本找不到的,这时候就更加看重基础了,把推荐书目的题目都刷了,都默一遍,怎么变都无所谓。正常难度年份,140分不是神话。三、时间分配从我开始正式复习到考完那天,我就只离开过学校一次(考研报名现场确认)。如果考研,你就没有假期,你就没有人权和休息权。走出考场那一刻,我的圣诞节才开始。四、业精于勤花时间了,不会差的。五、关于学习方法的举例我以第一块极限内容为例,这是我在百度脑图里简单化的框架。第一轮复习可以结合张宇的视频,他讲极限会把极限的定义的几种情况和定义本身的叙述讲一遍,当他讲的时候就应该暂停视频,在思维导图里把这个内容加进去(参考极限的定义)。后来他又会讲极限的性质,其中两个性质证明给你看了,这时候就应该在证明的定理旁边备注自己需要会证明。第三块,他会讲极限计算的方法(如我所列的那样),这时候你可以不忙着抄题目,而是把方法的名字记下来,给自己做一个方法的总结。同时在用来记题目的笔记本上把对应的例题记下来并留出足够的空白,供以后使用。第一个问题:这里大家可以看到我所列的方法远不止考研的所有方法,还有洛必达和神一般的泰勒根本没出现。这是为什么呢?因为你第一轮复习第一章的时候,这个方法还没复习到,切记不要把后面的东西拿到前面来,这样你的体系就乱了。遇到了往后加。之所以推荐思维导图,就是它的结构很容易扩展。第二个问题:为什么要留出空白呢?这里并不是希望大家以后默写笔记的时候,就默写在空白处。这个留白的设计,我是精心为之的。首先,大家面对一本厚厚的笔记,挤满了密密麻麻的字,后期不便于你去翻看。其次,适当的留白可以为后续添加更加精彩题目而创造条件。最后,也是我觉得最重要的。有些人一年都写不完一本笔记,利用空白来营造一种满足感和自信心是尤为重要的。所以,综上请坚持留白、大胆留白。第三个问题:怎么检测自己逻辑框架的构建请拿出一张白纸!像我一样,用最潦草的字!自己默写之前的框架!一边默写框架一边回忆视频讲了什么!遇到计算方法最好自己临时编个题目过一过方法(题目可以是白痴题,体现方法思想就好)!遇到定义证明最好自己推一下!这样的框架默写请经常做!第二轮复习第二轮最简单粗暴的方法就是按图索骥,拿着你的框架,去看题目。尽量自己做,不会的多过几遍,一个板块题目都会做了,那就大胆的默写你的笔记吧。六、关于复习时间的规划根据教育部考试大纲的规定,一般来说我们考研数学的科目主要就是考高数、线代、概率(数二不考)。很多同学会和我说复习时间上不够,理由分为如下几类,我本科大三下、大四上还有很多的课程需要修读。我早上起不来,到了中午已经半天没有了(有同感的可以举个手)。这里,我想说的是,我自己是从八月份开始复习的,所以5月份就进入复习根本不存在时间上不够的问题。高等数学18讲,考的最多的就是数一(考17讲)。我们来算一算,平均2两天看一讲(包括张宇的视频+书,很多讲内容很少,两天很富裕了),是不是还挺充足的?这样最多就只要一个月就可以看完了。况且,你是有暑假这种美妙时间段的人。线代、概率根本不着急,考的简单的年份68分全部是送给你的(只要你好好复习),考的太难太偏估计大家都不怎么得分。所以并不需要在这两科上花大时间。得数学得考研,得高数得数学,得高数上册就是得高数。因为概念大部分都在上册,下册主要是繁琐的计算和考前背一背喝前摇一摇的东西(平时那堆散度、梯度、旋度背了就是为了忘记的,根本不用强行装x背下来。考前背一下,打开卷子,如果出了题就第一时间把公式写上去,不就好了?)所以,总的来说,你八月前把高数吃透比你心急火燎学线代概率有用的多。最后说一点,如果早上起不来就不要强行起来了。起来了也没效率。大不了太阳晒屁股再起床,吃个午饭笃定下午好好看(看吧,我把睡午觉的时间节省下来了),坚持3-5小时高度精神集中学习(因为考试是3小时)。来不及做完今天的任务,大不了晚上睡晚一点嘛。晚上可是思维活跃的时候啊。七、Q&AQ:背框架真的有用么?A:我们背框架的目的在于对知识点的整体梳理,很多人背完框架发现还是好多题目不会做,就直接把框架扔在那里了。每次我们新做一个题目,就应该去看看这个题目属于自己建立框架的哪一部分,很多时候你会发现这个题在框架范围内,你不会。说明你可能想不到这么做,或者也可能有个新的方法技巧你没掌握。遇到这种题,你应该觉得开心,因为你会在这个题目里get一个新的小技能。至于考试的技能有多少,多做点题基本都可以收入你的框架了。还有一种可能,自己的框架里没有这道题对应的内容,这时候你就应该查漏补缺了。等你题目做到一定数量了,你的框架就会是万能的了,那时候的你就可以笑看考研了。Q:你能不能把你的框架开源给大家?A:不能。这个问题也是最近私信我最多的问题。这里主要有两个原因。第一、我把这东西给大家,对大家百害而无一利。我框架里每一个此条都是我精心雕琢了很久的东西。你看不懂,而且这种不劳而获的学习方法,无法让你深刻理解自己的体系。(毕竟今年圣诞节前后需要你走进考场,去从容答题的。)其次、作为考试,我开源出来就会有一堆人来问我我的框架里的例题怎么做(我的题实在太难,很多题都是我结合了几个题,然后自己编的)。很怕大家私信一个张图片发个题目来问我怎么做。我那一个题可以写出7-8个知识点(写答案有可能要一页A4)我到底该不该给你做呢?确实工作比较忙= =,请见谅哈。(请无视第二个理由,第一个理由真的很重要,我给你个模版去套,考研那天你会恨我的)八、复习周期和复习推荐这里我只把我针对2018年考研live里推荐视频及书目的ppt放重要的一页供大家参考。不要私信我要完整ppt哈。2019年考研的live制作中,到时候会进一步更新和完善我的回答。九、考研减压的小办法1。坚持每天跑步一公里2。每天起床照镜子的时候对自己说:我可以的、我是最棒的,为自己的努力点个赞。3。试着去感谢那些为你考研默默付出的人4。即使心情不好,在手上画一个它十、考研数学心态的调整考研数学本身是个很难很枯燥的过程。或许,等到八月底,你会发现:基本还没怎么开始做题,会做的题算出来,不会做的题一大把。但你必须要相信张宇说的一段话:敢碰微积分的人,就是精英。敢在中国大陆考试考微积分更是精英中的精英,这样一想,我再差也是个精英啊。对,没错。你就是精英。其实大家在复习过程中都会迷茫,都会觉得考不上了,没有希望了。但只要勇敢坚持,积极努力去改变自己现有的样子,就能不负韶华。或许你会考前紧张不安、甚至考前一天晚上失眠到天亮。但请放心,你的神经会帮助你调节,在第二天给你一个清醒的头脑,供你去奔赴梦想。等你真的上了考场,就不会再害怕,也不会再迷茫。数学不会骗人,因为当你12月底走进考场,看到卷子的那一眼,你一定会为自己之前的努力而惊喜。然后就是一阵奋笔疾书,完成你人生的140分。未完待续,有问题可以私信我或者留言。我会继续更新!如果你觉得本文对你有帮助,也请为我点个赞~感谢!赞同 743174 条评论分享收藏感谢收起

我要回帖

更多关于 通信原理面试问题 的文章

 

随机推荐