我们分析得到三角函数公式模型为AR(1),但请问具体公式是什么,公式中的参数应如何确定,应如何预测未来的数值?

信号处理课件第12章_1参数模型功率谱估计_图文_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
评价文档:
信号处理课件第12章_1参数模型功率谱估计
上传于||文档简介
&&信​号​处​理​课​件
大小:1.04MB
登录百度文库,专享文档复制特权,财富值每天免费拿!
你可能喜欢32ARMA模型的参数估计1_图文_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
评价文档:
32ARMA模型的参数估计1
上传于||文档简介
&&3A​R​M​A​模​型​的​参​数​估​计​1
大小:1.19MB
登录百度文库,专享文档复制特权,财富值每天免费拿!
你可能喜欢EXCEL中所有的公式?_百度知道
EXCEL中所有的公式?
EXCEL2007中所有公式汇总,使用作用说明
求平均数公式有求和公式、最大值和最小值公式等、统计公式
其他类似问题
为您推荐:
excel的相关知识
其他2条回答
你在百度搜索
你想问什么啊?
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁SPSS—非线性回归(模型表达式)案例解析_飞扬投资网SPSS—非线性回归(模型表达式)案例解析非线性回归过程是用来建立因变量与一组自变量之间的非线性关系,它不像线性模型那样有众多的假设条件,可以在自变量和因变量之间建立任何形式的模型&&& 非线性,能够通过变量转换成为线性模型——称之为本质线性模型,转换后的模型,用线性回归的方式处理转换后的模型,有的非线性模型并不能够通过变量转换为线性模型,我们称之为:本质非线性模型&&&&&&& 还是以“销售量”和“广告费用”这个样本为例,进行研究,前面已经研究得出:“二次曲线模型”比“线性模型”能够更好的拟合“销售量随着广告费用的增加而呈现的趋势变化”,那么“二次曲线”会不会是最佳模型呢?&&&&& 答案是否定的,因为“非线性模型”能够更好的拟合“销售量随着广告费用的增加而呈现的变化趋势” 下面我们开始研究:第一步:非线性模型那么多,我们应该选择“哪一个模型呢?”1:绘制图形,根据图形的变化趋势结合自己的经验判断,选择合适的模型点击“图形”—图表构建程序—进入如下所示界面:点击确定按钮,得到如下结果:放眼望去, 图形的变化趋势,其实是一条曲线,这条曲线更倾向于"S" 型曲线,我们来验证一下,看“二次曲线”和“S曲线”相比,两者哪一个的拟合度更高!点击“分析—回归—曲线估计——进入如下界面&通过“二次”和“S& “ 两个模型的对比,可以看出S 模型的拟合度 明显高于“二次”模型的拟合度 (0.912 &0.900)不过,几乎接近& 接着,我们采用S 模型,得到如下所示的结果:结果分析:2:从“系数”表中可以看出:在未标准化的情况下,系数为(-0.986) 常数项为2.672所以 S 型曲线的表达式为:Y(销售量)=e^(b0 b1/t) =&e^(2.672-0.986/广告费用)& 当数据通过标准化处理后,常数项被剔除了,所以标准化的S型表达式为:Y(销售量) =&e^(-0.957/广告费用)& 下面,我们直接采用“非线性”模型来进行操作第一步:确定“非线性模型”&从绘图中可以看出:广告费用在1千万——4千多万的时候,销售量增加的跨度较大,当广告费用超过“4千多万"的时候,增加幅度较小,在达到6千多万”达到顶峰,之后呈现下降趋势。&从图形可以看出:它符合The asymptotic regression model (渐近回归模型)&表达式为:Y(销售量)= b1
b2*e∧b3*(广告费用)当b1&0, b2&0, and b3&0,时,它符合效益递减规律,我们称之为:Mistcherlich‘s model&&第二步:确定各参数的初始值1:b1参数值的确定,从表达式可以看出:随着”广告费用“的增加,销售量也会增加,最后达到一个峰值,由于:b2&0, b3&0 ,随着广告费用的增加:b2*e∧b3*(广告费用)会逐渐趋向于“0”& 而此时 Y(销售量)将接近于 b1值,从上图可以看出:Y(销售量)的最大值为12点多,接近13,所以,我们设定b1的初始值为132:b2参数值确定:当Y(销售量)最小时,此时应该广告费用最小,基本等于“0”,可以得出:b1 b2= Y(销售量)此时Y销售量最小,从图中可以看出:第一个值为6.7左右,接近7这个值,所以:b2=7-13=-63:&b3参数值确定:可以用图中两个分离点的斜率来确定b3的值,例如取(x1=2.29,y1=8.71)&和(&x2=5.75, y2=12.74) 通过公式 y2-y1/x2-x1=1.16,(此处可以去整数估计值来算b3的值)确定参数初始值和参数范围的方法如下所示:1:通过图形确定参数的取值范围,然后在这个范围里选择初始值。2:根据非线性方程的数学特性进行某些变换后,再通过图形帮助判断初始值的范围。3:先使用固定的数代替某些参数,以此来确定其它参数的取值范围。4:通过变量转换,使用线性回归模型来估计参数的初始值第三步:建立模型表达式和选择损失函数点击“分析”—回归——非线性,进入如下所示界面:“损失函数”默认选项为“残差平方和” 如果有特需要求,可以自行定义点击“约束”进入如下所示的界面:点击“继续”按钮,此时会弹出警告信息,提示用户是否接受建议, 建议内容为:将采用序列二次编程进行参数估计,点击确定,接受建议即可参数的取值范围指在迭代过程中,将参数限制在有意义的范围区间内,提供两种对参数范围约束的方法:1:线性约束,在约束表达式里只有对参数的线性运算2:非线性约束,在约束表达式里,至少有一个参数与其它参数进行了乘,除运算,或者自身的幂运算在“保存”选项中,勾选“预测值”和“残差”即可,点击继续点击“选项”得到如下所示的界面:点击继续,再点击“确定”得到如下所示的结果:上图结果分析:1:从“迭代历史记录”表中可以看出:迭代了17次后,迭代被终止,已经找到最优解此方法是不断地将“参数估计值”代入”损失函数“求解, 而损失函数采用的是”残差平方和“最小,在迭代17次后,残差平方和达到最小值,最小值为(6.778)此时找到最优解,迭代终止2:从参数估计值”表中可以看出:b1= 12.904& (标准误为0.610,比较小,说明此估计值的置信度较高)& b2=-11.268& (标准误为:1.5881,有点大,说明此估计值的置信度不太高)&b3=-0.496(标准误为:0.138,很小,说明此估计值的置信度很高)非线性模型表达式为:Y(销售量)= 12.904-11.268*e^(-0.496*广告费用)3:从“参数估计值的相关性”表中可以看出:b1 和 b3的相关性较强,b2和b1或b3的相关性都相对弱一些,其中b1和b2的相关性最弱4:从anova表中可以看出:R方 = 1- (残差平方和)/(已更正的平方和) = 0.909, 拟合度为0.909,说明此模型能够解释90多的变异,拟合度已经很高了&&&& 前面已经提到过,S行曲线的拟合度更高,为(0.916)那到底哪个更合适呢?& 如果您的数据样本容量够大,我想应该是“非线性模型”的拟合度会更高!&其实想想,我们是否可以将“非线性”转换为“线性”后,再利用线性模型进行分析了?& 后期有时间的话,将还是以本例为说明,如何将“非线性”转换为“线性”后进行分析!!关于向量自回归模型的问题?,你的这个有好几个变量,是不是应该建多元回归模型啊?自回归是一个变量自己跟自己的滞后项进行回归。在eviews中,可以做MA模型、AR模型和ARMA模型。一个变量建立自回归的时候,首先观察一个变量的线图是否平稳,如回归分析法在销售收入审计中的运用,在上市公司的年报审计中,对销售收入科目的查验至关重要。而随业绩压力的不同,上市公司管理层分别具有递延和激进确认收入的倾向。因此,在审计过程中,由于销售收入科目的重要性和复杂性,审计人员必须通过恰当的分析性复求助用多元线性回归或者一般线性模型做一组数据分析,楼主的数据中变量名是数字,R语言无法导入lanmayifly(站内联系TA)2楼Originallypostedbyli能源化工品跨品种套利回归模型分析,充裕的流动性是套利的必备条件之一,一个期货上市品种的成熟度则直接决定是否适合与其他品种进行套利,因成熟品种的市场参与度及套利时面临的对冲成本直接影响到套利收益。本文中我们采用期货市场常见的成交量、持仓量两个机器学习为什么需要训练,训练出来的模型具体又是什么?
一直搞不懂为什么机器学习中训练是训练什么?其中的参数还是?训练的模型又是怎样的?
按时间排序
我也是初学者,我试试阐述下我个人的理解,如果不对欢迎指出。人学习的过程就是一个知识和经验积累的过程,当人的知识越多经验越丰富,他所作出的分析判断也会越准确。同样的,机器学习也像人一样,需要不断积累知识和经验,这样它分析处理得到的结果也才会更准确。而这里的知识经验就是指的是样本数据。模型则是指计算框架。训练模型则是通过样本数据数据来优化计算框架中的参数,使计算框架得到的结果更符合自身需求。
你可以把机器想象成一个小孩子,你带小孩去公园。公园里有很多人在遛狗。简单起见,咱们先考虑二元分类问题。你告诉小孩这个动物是狗,那个也是狗。但突然一只猫跑过来,你告诉他,这个不是狗。久而久之,小孩就会产生认知模式。这个学习过程,就叫“训练”。所形成的认知模式,就是”模型“。训练之后。这时,再跑过来一个动物时,你问小孩,这个是狗吧?他会回答,是/否。这个就叫,预测。一个模型中,有很多参数。有些参数,可以通过训练获得,比如logistic模型中的权重。但有些参数,通过训练无法获得,被称为”超参数“,比如学习率等。这需要靠经验,过着grid search的方法去寻找。上面这个例子,是有人告诉小孩,样本的正确分类,这叫有督管学习。还有无督管学习,比如小孩自发性对动物的相似性进行辨识和分类。
Training 的过程实质是优化!在监督学习中,给定数据和模型假设空间,就可以构建出优化问题,也即如何确定参数,使得你的优化目标最优化,这也就是所谓的训练吧。训练之后,便可以确定这些参数,这些参数确定的假设空间中的某一假设函数便是所谓的模型~举个栗子手写体识别我们有很多的28*28像素的黑白图片,每张图片里是手写体数字,任务是训练出模型,使得它能够尽量准确的去识别其他的手写体数字。首先,假设我们选用结构的神经网络,也即确定了我们的假设空间,的中的点为具有某种神经元连接权值的神经网络模型,训练的任务便是在这浩瀚的假设空间中,寻找那神秘未知的模型,使得我们已有的图片能够很好的fit这个,也即Minimize Training Error 同时在未知的图片上也有非常好的预测能力,也即Minimize Testing Error.接着,确定假设空间之后,就需要构造优化目标了,这里采用的是最小均方误差(Minimize Square Error, MSE)(或者也可以使用极大似然误差),优化目标便是:,如果样本足够大,那么我们便可以用Training Error去估计out of sample
Error.确定优化目标之后,便需要采用某种寻优算法在空间中尽量找到那个点,使得模型最优,一般会采用梯度下降算法,神经网络构造出的是非凸优化,所以存在局部最优,欠拟合的情况时有发生,但是训练的模型已经具有非常强的学习能力~其实,训练就是不断地试错,直至最优,机器学习路漫漫其修远,题主要不断的Training噢~
很久没从事专业相关工作,尽力说一下自己的理解,可能有些表述不是特别精确,烦请指正并见谅。先从有监督问题谈起,形式上,无论解析还是非解析,有监督问题都可看作根据已知数据在全体映射空间中寻找最优映射,其中为输入,为输出。寻找符合已知数据的映射很简单,难点在于理论上来说,未知输入等可能对应任意输出,这样一来预测则成为无稽之谈(No Free Lunch)。举个例子,求解找规律题目“1, 2, 3, 4, ( ), 6”,一般人都会在括号里填5。然而理论
上来说这个括号里可以是任意数字,比如4。不知道大家是否考虑过凭什么“每次增1”是规律
而“先增三次1然后保持不变然后再持续增1”就不可以是规律。那是因为我们不知不觉中使用了
题目并未给出的一些前提假设,比如奥卡姆剃刀原则,“每次增1”看起来明显比后者更简洁优
雅,更容易被人接受。
解释这个概念就不能不提到,意指在求解学习问题前必须拥有的一系列前提假设。当我们选定一个广义上的model,其实可以看作选定了一组inductive bias。特定的model/inductive bias可以在浩瀚的全体映射空间中圈定出一个子空间,然后通过inductive bias提供的方式(一般为某种loss function)寻找符合已知数据的model参数,从而又在中进一步缩小搜索范围直至确定最优或次优映射(可能本不在中)。所以应了那句话,“All models are wrong, but some are useful.” 得出什么样的答案,很大程度上取决于我们使用什么样的假设。那么此问题的答案是:模型是求解学习问题的一系列前提假设/inductive bias,根据已知数据寻找模型参数的过程就是训练,最终搜索到的映射被称为训练出来的模型。注:
1. 这里所谓的“最优”,“次优”,“符合”等描述是根据预先设定好的测量标准/目标函数进行
阐释的,属于model/inductive bias的一部分。
2. 之所以说“广义上的model”,是因为一般形式上会对prior distribution,model(实际指映射
表达式)以及loss function等进行区分,这里为方便阐述,不加区分的算成广义上
的model,因其均为inductive bias。
无监督问题大致上也类似,前提假设甚至会表现得更为明显,有一则段子:“聚类的故事:老师拿来苹果和梨,让小朋友分成两份。小明把大苹果大梨放一起,小个头的放一起,老师点头,恩,体量感。小芳把红苹果挑出来,剩下的放一起,老师点头,颜色感。小武的结果?不明白。小武掏出眼镜:最新款,能看到水果里有几个籽,左边这堆单数,右边双数。老师很高兴:新的聚类算法诞生了”PS: 人类的各种错觉,比如视错觉,也可看成是一系列人脑硬编码的inductive bias,用以辅助学习方便解决现实问题,所以各假设都具有其对应的适用范围。参考:
泻药。其实很简单。首先你得知道模型是什么,是什么形式。模型最终输出可以简单理解为一个函数,比如一个多项式函数,里面有系数从a1到an。但我们怎么得到这些系数(参数)呢?就是通过模型的训练,基于现有训练数据学习到这些参数,最终使得我们的模型在训练数据,测试数据上表现得好。怎样才算表现得好?这取决于我们怎么定义我们模型的评估函数(另外一个函数)。所以你会发现机器学习的理论基础都是数学,如果你想学习这个,可以像前面的答主说的那样,认真学一下coursera上的斯坦福机器学习课程,现在都可以按自己的进度自己分配时间学了。当然,我还是会建议你花一段连续时间去学,不然忘得快:)
训练其实就是一个优化过程,提出一种模型,已知一组数据,定义一种代价函数或者叫损失函数,然后用数学方法得到使得代价函数或损失函数最小的过程,也可以理解为优化参数,如果能够设计出通过训练从根本上改变模型的算法,真正的人工智能将会实现
训练类似于求解“方程”参数,模型就是“知道参数”的方程
就是一堆权重,比如再来一张图像,用这个权重可以得到结果!
邀。大家讲的都非常好。我就举一个小例子吧。已知大量用户的体重与身高,比如一个用户的体重为60Kg,身高1.7m,那么体重身高比为35.29。并且已知相应用户的标签,胖、适中、瘦。现在有一个只知道身高与体重的用户,请问他是胖,适中,还是瘦?有很多办法,比如下面这样的:
(x是体重身高比,a, b是一个具体的参数)x & a =& 胖x & a 且 x & b =& 适中x & b =& 瘦现在要找到a与b的值,使得用户与对应的标签匹配得比较好。找a与b的值的过程就训练。一个办法加上具体的参数值,就是一个模型。
训练是为了使模型的输出更加符合期望或实际
训练的应该可以认为是参数 而且经常是某种函数的参数
谢邀,这个其实大家说的比较清楚。就单纯需要训练的模型,一般来说,基本的一些模型都是有很强的适应性的,比方说高斯分布,可以有不同的均值不同的方差,对应于不同的数据分布,或是分类模型可以形成其所在空间的任意一分割平面,这全部取决于参数不同,但是我们需要求解的问题只是某一个分布,或是求某个分割平面,这样就需要根据数据求得模型的参数
谢谢邀请。首先,纠正一下,不是所有的机器学习算法都有训练。像所有无监督学习算法就没有训练这一步骤,而部分监督算法,如kNN也没有训练过程。训练,我的理解是输入训练数据到算法得出模型的过程。得出的模型在不同的算法上表现形式是不同的。像逻辑回归模型就是表现为一个线性公式,训练就是要找到这个线性公式的最佳拟合系数,所以训练在这里就是一个拟合过程;而决策树算法则是要找到树节点的最佳切分点,模型表现为一个切分好的树结构。所以,对于训练和模型具体是什么要看你选择的具体算法。
谢谢邀请。 简单点说,机器学习需要数据,也需要模型。有了这两样,把模型放在数据上通过优化算法自动调整模型参数的过程就是训练。 训练出来的就是模型中的参数。
谢邀,机器学习中所使用的一些模型,需要在具体的场景中,使用具体的数据,选择合适的模型(回归,分类,概率估计等等),通过学习训练的过程,得到相应模型的参数,让最终的模型能够最好的模拟场景,供预测,分类等。
泻药,其他人回到的都非常对。我简单的说一下我的了解,有不对的地方大家拍砖。所谓学习,就是学习某个函数的参数的过程。例如,对于线性分类问题来说,大于零的点称之为正样本,小于零的点称之为负样本。那么这条线是什么样子就很重要了,直接决定了分类的正确率。那么如何确定这条线的参数呢(斜率,截距等)?这就需要从训练数据中利用某种规则(如最小二乘法)来确定参数,这个过程就是学习的过程。
谢邀,机器学习算法其实是一些泛化的模型,比如Linear Regression用来解决回归问题,SVM用来解决分类问题,Bayes用来解决概率估计问题....但是对于具体的任务,我们需要让模型符合我们的数据分布,因而需要对模型进行训练,使模型在该数据集上达到最优,从而达到最好的预测效果。
谢邀 。可能题主刚接触机器学习??简单回答一下这个问题吧。对于一个机器学习问题通常可以分为几个阶段:1. 获取训练数据集,对数据预处理,如归一化,去除奇异点等2. 模型选择(即使用哪种机器学习方法),策略(即如何定义损失函数),算法(如何优化参数)3. 通过训练获取模型的最优参数4. 使用训练好的模型对新数据进行预测图一 有监督学习的两个阶段:归纳和演绎,分别对应训练系统和预测系统。题主主要关注的是第三个阶段,即为什么要对模型进行训练。这里首先声明一点,不是所有的统计学习算法都需要训练的,如所有的无监督学习,部分lazy-learning的有监督学习(最典型的例子是K近邻)。对于大部分有监督学习,都有模型参数需要使用特定的训练集进行拟合,以在特定的场景下解决特定的问题(目前还没有出现通用的机器学习模型通过一次训练就能解决所有问题,除了人自己的大脑,这些是生物神经系统的NB之处)。以一维的回归问题为例,如果模型是多项式基函数的线性回归器,并使用最小线性误差的损失函数,那么这个问题就转化为用多项式来最优拟合一组给定的数据点(如余弦函数加随机噪声生成的数据),训练的过程就是求解多项式的系数,使得定义的损失函数最小。图二 一维数据的回归问题最后总结一下回答,1. 机器学习训练的是提前定义好的模型参数,使得模型适应于特定的问题。2. 训练出来的模型与提前选定的模型类和训练集的数据有关。选用线性分类模型的话,训练出来的就是特征空间中的一个超平面,选用带有基函数的分类模型的话,训练出来的就是特征空间上的更复杂的曲面,从而将两个类最优的分割开。和其他答主一样,学习机器学习的话强烈推荐Andrew Ng的公开课 , 书的话首推Bishop的《Pattern Recognition and Machine Learning》如果英文不好的话,可以先看一下李航的那本《统计学习方法》,都很不错。本人也接触统计学习时间不长(一年左右吧),如有纰漏,欢迎指出。
谢邀。机器学习的本质,粗暴点、通俗点说,就是给定已知的,来预测未知的。怎么个预测法呢,就是训练学习,用已知的给定的数据进行训练。怎么看训练效果好不好呢,看你训练出来的这个“东西”,在新的未知的数据上的预测效果好不好。中间这个训练过程,其实就是个黑匣子,我们要关心的,首先是这个黑匣子出来的东西好不好用,也就是说,它在新数据上的表现如何。如果训练过程是个白匣子,每一步你都能解释得很清楚,但是就是训练效果不好,那么白扯淡。其次,当训练出来的东西能够在未知的测试数据上有很好的表现得时候,我们就会接着关心下个问题了:为什么,训练出来的东西为什么好用,这个模型具有可解释性吗。这就是题主关心的到底在训练什么的问题。我个人的理解是,训练过程,无非就是两个步骤:1)选择什么样的模型
2)模型的参数1)选择什么样的模型以监督问题为例,我们训练出的模型,其实可以认为是从输入空间到输出空间的一个映射。用两种形式,一种是概率模型P(Y|X),一种是非概率模型,称为决策函数Y=f(X)。前者的可解释性其实要强很多,表示的是给定输入条件下,输出的概率模型。对于概率模型,典型的有朴素贝叶斯,隐马尔科夫模型。以朴素贝叶斯为例,训练出来的模型具有很强的解释性,给定训练数据,假定有k个类,给定实例x,判断实例x属于哪个分类。训练出来的模型可以分别算出实例x属于这k个类的概率各自是多少,然后从中选择概率最大的作为x的分类。这时候得到的模型对应有概率解释。而对于非概率模型,典型的有感知机,kNN,SVM,boosting等。以kNN为例,用的是多数表决的方法,给定某个新样本,我就用距离我最近的K个相邻的邻居进行投票表决,哪个类被投票最多,我就是哪个类。原理浅显易懂,但是模型没法解释啊,这种随大众的训练方法,其实没有一个显示的学习过程,我之所以说显示,是因为本质上还是要利用训练数据,来找住我的K个邻居,让它们进行投票的。显然,对于一个问题,如果我们能同时用朴素贝叶斯以及KNN算法进行分类,如果训练和预测准确度差不多,甚至说朴素贝叶斯稍微比KNN效果稍微差一点,我们是更愿意用前者的。尤其在业务逻辑上,模型的可解释性有时比单单精度提高一点点要重要得多得多。2)模型的参数其实你选择了模型之后,这个自然而然也就是训练过程要做的了。你一旦选择了用哪种模型去做训练,模型的参数其实是否可以解释已经是能遇见的了。当你选择了具有可解释的模型,例如线性回归,逻辑斯蒂回归,你训练后得到的参数,就都是选择的样本点的特征值的权重,它们能够告诉你对应的这个特征到底对模型贡献有多少(权重大小决定);而当你选择了模型可解释性较差的,例如支持向量机,你训练出来的数据,只能告诉你说,样本属于哪个分类,而中间过程怎么解释,其实很难有题主想要的物理可解释性。个人观点,难免有不妥和误解之处。欢迎批评讨论。
如果你学过c++或者java你可以把模型看做为一个类训练得到参数是构造函数简单的线性回归例子你有一个对特定问题的模型 y=ax+b现在有这个特定问题的样本 点集{(1,0)……}现在你需要通过x预测y 这个时候你就需要通过样本集来训练模型以得到模型的参数a,b得到a,b后 你就可以进行预测了上面的a,b就是参数 模型是y=ax+b 训练你可以认为是用样本集以及数学方法去求解(或者说最优化逼近)模型最后还是推荐你找专业的视频或者书籍看
邀。我用两个分类的例子简单说明下,有错误的地方还请指出。假设现在我们要开发一个识别鸟类的计算机程序。我们已经收集了很多鸟类样本数据,比如下面这样:(图片和例子来自(图片和例子来自)这个识别鸟类的程序要完成的功能:输入一只鸟的“体重”、“翼展”、“有/无脚蹼”、“后背颜色”,输出这只鸟的种类。换句话说,这是一个分类系统。怎么让计算机帮助我们对鸟类进行分类?这就需要使用机器学习的方法。机器学习可以让计算机从已有的数据(上面收集的已经有分类信息的鸟类样本数据)中学习出新的知识(如何对鸟进行分类)。那么什么是训练?在这个例子里,训练指的就是利用收集的鸟类样本数据让计算机学习如何对鸟类进行分类这一过程。已有类别信息的鸟类样本数据集合,称为训练数据集、训练集。训练的目的是让计算机程序知道“如何进行分类”。至于“训练的是什么”、“参数是什么”,这依赖于我们所选取的“模型”。训练的结果简单来说就是得到一组模型的参数,最后使用采用这些参数的模型来完成我们的分类任务。再举一个简单例子说明“模型”和“模型的参数”。假设现在我们收集了一些二维平面上的点:红色的点记为A类,绿色的点记为B类,这些点的坐标和类别信息都是已知的。现在任务是,给出一个新的点的坐标,判断它是A类还是B类。简单观察一下数据,好像我们可以用一条平行于 y 轴的直线把 A 类点和 B 类点分开。大概是这个样子:我们希望找到这样一条直线 x = k,直线左边绝大多数点都是 A 类,直线右边绝大多数点都是 B 类。于是我们的分类器模型就是 x = k 这样的直线,k 就是我们的模型参数。训练的过程就是利用已有的数据点确定参数 k 的过程。假设我们的训练结果是 k = k_0 ,那么我们就可以用 x = k_0 这条直线作为分类器对新的点进行分类了。当然实际应用中的模型可能要复杂的多,模型参数也不会只有一个 k 这么简单。
已有帐号?
无法登录?
社交帐号登录

我要回帖

更多关于 三角函数公式 的文章

 

随机推荐