回归直线方程的系数a,b的最小二乘法原理估计中,使函数Q(a,b)最小,Q函数是指什么?

查看: 6048|回复: 6
曲线拟合的最小2乘法
论坛徽章:18
本帖最后由 liyihongcug 于
10:39 编辑
http://blog.csdn.net/u
1.线性代数模型首先给出最小二乘解的矩阵形式的公式:
推导过程:
矩阵必须是列满秩矩阵,否则的逆就不会存在。
若A为m×n的矩阵,b为m×1的矩阵,则Ax=b表达了一个线性方程组,它的normal equation的形式为ATAx=ATb。
当Ax=b有解时(即矩阵[A|b]的秩与A的秩相同),Ax=b与ATAx=ATb的解集是一样。
而当Ax=b无解时,ATAx=ATb仍然有解,其解集即最小二乘解(least squares solution),即使得(Ax-b)T(Ax-b)的值最小的解,可以理解为使方程组Ax=b近似成立且误差最小的解。
Python语言写的一个例子:
#encoding=UTF-8'''''Created on 日@author: jin'''from numpy import *import matplotlib.pyplot as pltfrom random import *def loadData():& & x = arange(-1,1,0.02)& & y = ((x*x-1)**3+1)*(cos(x*2)+0.6*sin(x*1.3))& & #生成的曲线上的各个点偏移一下,并放入到xa,ya中去& & xr=[];yr=[];i = 0& & for xx in x:& && &&&yy=y& && &&&d=float(randint(80,120))/100& && &&&i+=1& && &&&xr.append(xx*d)& && &&&yr.append(yy*d)& & return x,y,xr,yrdef XY(x,y,order):& & X=[]& & for i in range(order+1):& && &&&X.append(x**i)& & X=mat(X).T& & Y=array(y).reshape((len(y),1))& & return X,Ydef figPlot(x1,y1,x2,y2):& & plt.plot(x1,y1,color='g',linestyle='-',marker='')& & plt.plot(x2,y2,color='m',linestyle='',marker='.')& & plt.show()def Main():& & x,y,xr,yr = loadData()& & X,Y = XY(x,y,9)& & XT=X.transpose()#X的转置 & & B=dot(dot(linalg.inv(dot(XT,X)),XT),Y)#套用最小二乘法公式 & & myY=dot(X,B)& & figPlot(x,myY,xr,yr)Main()
#encoding=UTF-8'''Created on 日@author: jin'''from numpy import *import matplotlib.pyplot as pltfrom random import *def loadData():& & x = arange(-1,1,0.02)& & y = ((x*x-1)**3+1)*(cos(x*2)+0.6*sin(x*1.3))& & #生成的曲线上的各个点偏移一下,并放入到xa,ya中去& & xr=[];yr=[];i = 0& & for xx in x:& && &&&yy=y& && &&&d=float(randint(80,120))/100& && &&&i+=1& && &&&xr.append(xx*d)& && &&&yr.append(yy*d)& && &return x,y,xr,yrdef XY(x,y,order):& & X=[]& & for i in range(order+1):& && &&&X.append(x**i)& & X=mat(X).T& & Y=array(y).reshape((len(y),1))& & return X,Ydef figPlot(x1,y1,x2,y2):& & plt.plot(x1,y1,color='g',linestyle='-',marker='')& & plt.plot(x2,y2,color='m',linestyle='',marker='.')& & plt.show()def Main():& && &&&x,y,xr,yr = loadData()& & X,Y = XY(x,y,9)& & XT=X.transpose()#X的转置& & B=dot(dot(linalg.inv(dot(XT,X)),XT),Y)#套用最小二乘法公式& & myY=dot(X,B)& & figPlot(x,myY,xr,yr)Main()
程序截图:
MATLAB写的例子:
clearclcY=[33815& & 33981& &34004& &34165& &34212& &34327& &34344& &34458& &34498& &34476& &34483& &34488& &34513& &34497& &34511& &34520& &34507& &34509& &34521& &34513& &34515& &34517& &34519& &34519& &34521& &34521& &34523& &34525& &34525& &34527]T=[1& & 2& &3& &4& &5& &6& &7& &8& &9& &10&&11&&12&&13&&14&&15&&16&&17&&18&&19&&20&&21&&22&&23&&24&&25&&26&&27&&28&&29&&30]% 线性化处理for t = 1:30,& &x(t)=exp(-t);& &y(t)=1/Y(t);end% 计算,并输出回归系数Bc=zeros(30,1)+1;X=[c,x'];B=inv(X'*X)*X'*y'for i=1:30,% 计算回归拟合值& & z(i)=B(1,1)+B(2,1)*x(i);endY2=[]for j=1:30,& & Y2(j)=1/(B(1,1)+B(2,1)*exp(-j));endplot(T,Y2)hold onplot(T,Y,'r.')
clearclcY=[33815& && &&&33981& && &&&34004& && &&&34165& && &&&34212& && &&&34327& && &&&34344& && &&&34458& && &&&34498& && &&&34476& && &&&34483& && &&&34488& && &&&34513& && &&&34497& && &&&34511& && &&&34520& && &&&34507& && &&&34509& && &&&34521& && &&&34513& && &&&34515& && &&&34517& && &&&34519& && &&&34519& && &&&34521& && &&&34521& && &&&34523& && &&&34525& && &&&34525& && &&&34527]T=[1& && &&&2& && &&&3& && &&&4& && &&&5& && &&&6& && &&&7& && &&&8& && &&&9& && &&&10& && &&&11& && &&&12& && &&&13& && &&&14& && &&&15& && &&&16& && &&&17& && &&&18& && &&&19& && &&&20& && &&&21& && &&&22& && &&&23& && &&&24& && &&&25& && &&&26& && &&&27& && &&&28& && &&&29& && &&&30]% 线性化处理for t = 1:30,& & x(t)=exp(-t);& &y(t)=1/Y(t);end% 计算,并输出回归系数Bc=zeros(30,1)+1;X=[c,x'];B=inv(X'*X)*X'*y'for i=1:30,% 计算回归拟合值& && &&&z(i)=B(1,1)+B(2,1)*x(i);endY2=[]for j=1:30,& & Y2(j)=1/(B(1,1)+B(2,1)*exp(-j));endplot(T,Y2)hold onplot(T,Y,'r.')
2、一般线性模型一般线性模型,即普通最小二乘法( Ordinary&&Least Square,OLS):所选择的回归模型应该使所有观察值的残差平方和达到最小。
以简单线性模型 y =&&b1t +b0 作为例子。
回归模型:
最优化目标函数:
http://blog.csdn.net/u/article/details/
则目标函数可以简化成如下形式:
对简化后的目标函数进行求解,得到表达式:
下面是C++的实现例子:
#include&iostream&#include&fstream&#include&vector&#include&cstdlib&#include&ctime&class LeastSquare{& & double b0, b1;& & public:& && &&&LeastSquare(const vector&double&& x, const vector&double&& y)& && &&&{& &//下面是最小二乘法的核心过程& && && && &double xi_xi=0, xi=0, xi_yi=0, yi=0;& && && && &for(int i=0; i&x.size(); ++i)& && && && &{& && && && && & xi_xi += x*x;& && && && && & xi += x;& && && && && & xi_yi += x*y;& && && && && & yi += y;& && && && &}& && && && &b1= (xi_yi*x.size() - xi*yi) / (xi_xi*x.size() - xi*xi);& && && && &b0 = (xi_xi*yi - xi*xi_yi) / (xi_xi*x.size() - xi*xi);& && &&&}& && &&&double getY(const double x) const& && &&&{& && && && &return b0+b1*x;& && &&&}& && &&&void print() const& && &&&{& && && && &cout&&&y = &&&b0&&&+&&&b1&&&x&&&&&&\n&;& && &&&}& & };int main(){& && &&&srand((unsigned int)(time(NULL)));// & && &&&vector&double& x,y;& && &&&double xi = 0,yi,xin,& && &&&for (int i = 0;i &10; i++) {& && && && &yi = 2*xi +1;//原模型 & && && && &yi += 0.05*rand()/RAND_MAX*//添加噪声 & && && && &y.push_back(yi);& && && && &x.push_back(xi);& && && && &xi += 5.0;& && &&&}& && &&&LeastSquare lsObj(x, y);//用样本数据实例化对象 & && &&&lsObj.print();& && && & //输出最小二乘法得到的模型 & && &&&cout&&&Input x:\n&;& && &&&while(cin&&xin)& && &&&{& && && && &xout = lsObj.getY(xin);//利用得到的模型计算因变量 & && && && &cout&&&y = &&&xout&&& && && && &cout&&&Input x:\n&;& && &&&}}
#include&iostream&#include&fstream&#include&vector&#include&cstdlib&#include&ctime&class LeastSquare{& && &&&double b0, b1;& && &&&public:& && && && && & LeastSquare(const vector&double&& x, const vector&double&& y)& && && && && & {& &//下面是最小二乘法的核心过程& && && && && && && && &double xi_xi=0, xi=0, xi_yi=0, yi=0;& && && && && && && && &for(int i=0; i&x.size(); ++i)& && && && && && && && &{& && && && && && && && && && &&&xi_xi += x*x;& && && && && && && && && && &&&xi += x;& && && && && && && && && && &&&xi_yi += x*y;& && && && && && && && && && &&&yi += y;& && && && && && && && &}& && && && && && && && &b1= (xi_yi*x.size() - xi*yi) / (xi_xi*x.size() - xi*xi);& && && && && && && && &&&b0 = (xi_xi*yi - xi*xi_yi) / (xi_xi*x.size() - xi*xi);& && && && && && && &&&}& && && && && && && && &double getY(const double x) const& && && && && & {& && && && && && && && &return b0+b1*x;& && && && && & }& && && && && & void print() const& && && && && & {& && && && && && && && &cout&&&y = &&&b0&&&+&&&b1&&&x&&&&&&\n&;& && && && && & }& && &&&};int main(){& && && && && & srand((unsigned int)(time(NULL)));//& && && && && & vector&double& x,y;& && && && && & double xi = 0,yi,xin,& && && && && & for (int i = 0;i &10; i++) {& && && && && && && && && && && && && & yi = 2*xi +1;//原模型& && && && && && && && &yi += 0.05*rand()/RAND_MAX*//添加噪声& && && && && && && && &y.push_back(yi);& && && && && && && && &x.push_back(xi);& && && && && && && && &xi += 5.0;& && && && && & }& && && && && & LeastSquare lsObj(x, y);//用样本数据实例化对象& && && && && & lsObj.print();& && && & //输出最小二乘法得到的模型& && && && && & cout&&&Input x:\n&;& && && && && & while(cin&&xin)& && && && && & {& && && && && && && && &xout = lsObj.getY(xin);//利用得到的模型计算因变量& && && && && && && && &cout&&&y = &&&xout&&& && && && && && && && &cout&&&Input x:\n&;& && && && && & }}
执行效果截图:
3.最小二乘法和梯度下降算法相同点:
1 、本质相同:两种方法都是在给定已知数据(因变量 & 自变量)的前提下对因变量算出出一个一般性的估值函数。然后对给定的新的自变量用估值函数对其因变量进行估算。
2、 目标相同:都是在已知数据的框架内,使得估算值与实际值的差的平方和尽量更小(事实上未必一定要使用平方),估算值与实际值的差的平方和的公式为:
1、实现方法和结果不同:
最小二乘法是直接对error求导找出全局最小,是非迭代法。
而梯度下降法是一种迭代法,有一个学习的过程,先由给定参数计算一个error,然后向该error下降最快的方向调整参数值,在若干次迭代之后找到局部最小。
梯度下降法的缺点是到最小点的时候收敛速度变慢,并且对初始点的选择极为敏感,其改进大多是在这两方面下功夫。
&&---傻瓜求最小二乘法http://classroom./spsk/c102/wlkj/CourseContents/Chapter03/03_14_01.htm
多元线性回归
一元线性回归是一个主要影响因素作为自变量来解释因变量的变化,在现实问题研究中,因变量的变化往往受几个重要因素的影响,此时就需要用两个或两个以上的影响因素作为自变量来解释因变量的变化,这就是多元回归亦称多重回归。当多个自变量与因变量之间是线性关系时,所进行的回归分析就是多元性回归。
设y为因变量,为自变量,并且自变量与因变量之间为线性关系时,则多元线性回归模型为:python实现后效果如下:参数项矩阵为[[ 3.]
http://blog.csdn.net/u
3.+2.+1.+-0.000000
本博客所有内容是原创,未经书面许可,严禁任何形式的转载
python代码如下:
#!/usr/bin/env python# -*- coding: utf-8 -*-#最小二乘法,多变量线性回归#麦好:# import numpy as npx =np.matrix([[7,2,3],[3,7,17],[11,3,5]],dtype=np.float64)y =np.matrix([28,40,44],dtype=np.float64).Tb=(x.T*x).I*x.T*yprint u&参数项矩阵为{0}&.format(b)i=0cb=[]while&&i&3:& & cb.append(b[i,0])& & i+=1temp_e=y-x*bmye=temp_e.sum()/temp_e.sizee=np.matrix([mye,mye,mye]).Tprint &http://blog.csdn.net/u&print &%f*x1+%f*x2+%f*x3+%f&%(cb[0],cb[1],cb[2],mye)
多元非线性回归
如果自变数与依变数Y皆具非线性关系,或者有的为非线性有的为线性,则选用多元非线性回归方程是恰当的。(1)一元三次回归方程
部分python代码如下:#!/usr/bin/env python# -*- coding: utf-8 -*-#最小二乘法,非线性回归,单变量多项式回归#麦好:#*x+b2*(x^2)+b3*(x^3)..................z=np.matrix([3,1.4,1.9]).Tmyx =np.matrix([[4],[3],[5]],dtype=np.float64)x = np.matrix([[myx[0,0],myx[0,0]**2,myx[0,0]**3],\& && && && && &[myx[1,0],myx[1,0]**2,myx[0,0]**3],\& && && && && &[myx[2,0],myx[2,0]**2,myx[0,0]**3]],\& && && && && &dtype=np.float64)...........mye=temp_e.sum()/temp_e.sizee=np.matrix([mye,mye,mye]).Tprint &http://blog.csdn.net/u&print &%f*x+%f*x^2+%f*x^3+%f&%(cb[0],cb[1],cb[2],mye)pltx=np.linspace(0,10,1000)plty=cb[0]*pltx+cb[1]*(pltx**2)+cb[2]*(pltx**3)+myeplt.plot(myx,y,&*&)plt.plot(pltx,plty)plt.show()
效果:&&& 参数项矩阵为[[ 3. ] [ 1.4] [ 1.9]]http://blog.csdn.net/u3.000000*x+1.400000*x^2+1.900000*x^3+0.000000&&&
(2)二元二次多项式回归方程为:令,及于是上式化为五元一次线性回归方程:建立二元二次多项式回归方程。
python代码同(1)差不多执行效果
参数项矩阵为[[ 3. ]
http://blog.csdn.net/u
3.+1.^2+1.*x2+0.000000
论坛徽章:18
本帖最后由 liyihongcug 于
18:11 编辑
“似然”是对likelihood 的一种较为贴近文言文的翻译.
“似然”用现代的中文来说即“可能性”。
设总体X服从分布P(x;θ)(当X是连续型随机变量时为概率密度,当X为离散型随机变量时为概率分布),θ为待估参数,X1,X2,…Xn是来自于总体 X的样本,x1,x2…xn为样本X1,X2,…Xn的一个观察值,则样本的联合分布(当X是连续型随机变量时为概率密度,当X为离散型随机变量时为概率分布)
  L(θ)=L(x1,x2,…,xn;θ)=ΠP(xi;θ)称为似然函数.
最大似然估计
我们可能不知道θ的值,尽管我们知道这些采样数据来自于分布D。那么我们如何才能估计出θ呢?一个自然的想法是从这个分布中抽出一个具有n个值的采样X1,X2,...,Xn,然后用这些采样数据来估计θ.
一旦我们获得X1,X2,...,Xn,我们就能从中找到一个关于θ的估计。
最大似然估计会寻找关于θ的最可能的值(即,在所有可能的θ取值中,寻找一个值使这个采样的“可能性”最大化)。REF:
/question/ (最大或极大似然估计 与 最小二乘法区别)一手经验:(英文为母语人士念法,中文为国内大学我遇到说法)
y^ (^ 在上) 念 y-hat;中文 y-帽y- (- 在上) 念 y-bar;中文 y-杠y. (.在上) 念 y-dot;中文 y-点y~ (~在上) 念 y-tilde;中文 y-波浪y→ (→在上) 念 y-arrow;中文 y-箭头/question/http://mcm.dept./u_newsfiles//49814.pdf&&(多元线性回归&&非线性回归等) 是概率论的基本概念之一,用以表述随机变量取值的概率规律。为了使用的方便,根据随机变量所属类型的不同,取不同的表现形式。
  连续分布
  连续(continuous probobility distribution):
  一个随机变量在其区间内当能够取任何数值时所具有的分布。
  连续型随机变量的概率由概率分布密度函数确定。
   连续型随机变量概率分布具有以下性质:
  1.分布密度函数总是大于或等于0,即f(x)≥0
  2.当随机变量x取某一特定值时,其概率等于0
  3.在一次试验中随机变量x之取值必在-∞&x&+∞范围内,为一必然事件。
  常见连续概率分布:
  (1)。
  (2)三角型分布。
  (3)β分布。
  (4)经验分布。
  (5)指数分布。
  不连续分布
  离散型随机变量概率分布
常用分布列(distribution series):
x1 x2… xn …。
p1 p2… pn …
来表示离散型随机变量x的概率分布或分布。
显然离散型随机变量的概率分布具有pi≥0和Σpi=1这两个基本
论坛徽章:18
本帖最后由 liyihongcug 于
16:24 编辑
&&(比较浅显的粗糙集方法)&&(POS公式的定义有)
(概率与统计知识脉络)
&&(spss 最简单拟合 线性回归)
SPSS统计分析与数据挖掘(第2版 本书共24章,依次介绍SPSS基本文件管理、基本统计分析、高级统计分析、决策树模型、神经网络模型、信用风险、社会经济评价,以及各章节中的案例分析等内容。
第 1 章 SPSS软件概述。包括SPSS软件简介、SPSS操作入门、SPSS各个模块,以及SPSS帮助系统。
第 2 章 SPSS数据挖掘系统。包括数据挖掘概述、SPSS数据挖掘过程的介绍,以便掌握数据挖掘基本概念、流程等知识。
第 3 章 数据文件、变量与函数。包括SPSS的变量类型、SPSS数据文件的打开和保存,最后介绍SPSS的函数。
第 4 章 数据预处理。包括最基本的数据文件的整理和数据变量的变换和计算。
第 5 章 基本统计分析。包括基本概念、频数过程、描述性统计分析过程、数据探索性分析过程,以及列联表分析过程。
第 6 章 参数检验。包括参数估计和假设检验概述、均值(Means)过程、单样本t检验、独立样本t检验,以及配对两样本 t 检验。
第 7 章 基本图形的绘制。包括统计图概述、条形图、线图、面积图、饼图、高低图、质量控制图、箱图、散点图、直方图、P-P图和Q-Q图,以及时间序列图。
第 8 章 非参数检验。包括非参数检验概述、2检验、二项分布检验、游程检验、K-S检验、两独立样本分布位置检验、多个独立样本分布位置检验、两相关样本分布位置检验、多个独立样本分布位置检验。
第 9 章 方差分析。包括方差分析的基本原理、单因素方差分析、多因素方差分析、协方差分析。
第 10 章 回归分析。包括线性回归、非线性回归,以及Logistic过程。
第 11 章 相关分析。包括相关分析概述、Bivariate过程、Partial过程,以及Distances(距离)过程。
第 12 章 聚类分析。包括聚类分析的原理、快速聚类的SPSS过程、系统聚类的SPSS过程、两阶段聚类的SPSS过程,以及案例分析。
第 13 章 判别分析。包括判别分析的基本原理、一般判别分析过程、逐步判别分析过程。
第 14 章 因子分析。包括因子分析,以及SPSS中的因子分析操作过程。
第 15 章 对应分析。包括对应分析的基本原理、对应分析过程、Optimal Scaling过程。
第 16 章 可靠性和多维尺度分析。包括可靠性分析、多维尺度分析及案例。
第 17 章 生存分析。包括生存分析概述、Life Tables过程、Kaplan-Meier分析过程、Cox模型回归分析。
第 18 章 对数线性模型。包括对数线性模型概述、General过程、Logit过程、模型(Model)Selection过程。
第 19 章 时间序列分析。包括时间序列概述、时间序列数据的预处理、指数平滑方法、ARIMA模型、季节分解模型。
第 20 章 缺失值分析。包括SPSS中的缺失值理论概述、SPSS缺失值分析操作,以及缺失值实例分析。
第 21 章 决策树模型。包括决策树模型概述、SPSS中参数设置,以及利用实例分析来介绍决策树模型的应用。
第 22 章 神经网络。包括神经网络概述、SPSS神经网络模型的设置及实例分析。
第 23 章 信用风险分析。包括主要信用风险概述,以及利用SPSS解决信用风险的各种实例分析。
第 24 章 SPSS在社会经济综合评价中的应用。包括SPSS的各种分析案例,包括沿海省市经济综合指标的主成分分析、中国城镇居民消费结构的聚类分析研究,以及我国内地可支配收入和消费性支出之间的回归分析。
本书主要由谢龙汉、尚涛、蔡明京完成/.html#catalog
有一定高数基础 线代 概率统计。并不需组合数学 复变等,总体大本的核心数学课程足够使用,做一般分析足够。
做普通挖掘产品开发也够用,但如果自己设计算法或者做比如分类 聚类的算法优化调整,可能还需要加入新的知识体系或者元素才能完成创新。
应用创新一般难度较低,理论创新创造性较强--必须在大量的物质基础上(比如BAT的商务数据 位置数据)。
论坛徽章:18
本帖最后由 liyihongcug 于
14:48 编辑
学过概率理论的人都知道条件概率的公式:P(AB) = P(A)P(B|A) = P(B)P(A|B);即事件A和事件B同时发生的概率等于 在发生A的条件下B发生的概率乘以A的概率。由条件概率公式推导出 贝叶斯公式:P(B|A) = P(A|B)P(B)/P(A);即, 已知P(A|B),P(A) 和 P(B) 可以计算出P(B|A)。
假设B 是由相互独立的事件组成的概率空间{B1,b2,...bn}。则P(A) 可以用全概率公式展开:P(A) = P (A|B1)P(B1) + P(A|B2)P(B2) + ..P(A|Bn)P(Bn)。贝叶斯公式表示成:P(Bi|A) = P(A|Bi)P(Bi)/(P(A|B1)P(B1) + P(A|B2)P(B2) + ..P(A|Bn)P(Bn));常常把P(Bi|A)称作后验概率,而P(A|Bn)P(Bn)为先验概率。而P(Bi)又叫做基础概率。
贝叶斯公式:&&
一个随机事件的概率,确切地说,是指在某些给定的条件下,事件发生的可能性大小的度量.但如果给定的条件发生变化之后,该事件的概率一般也随之变化.于是,人们自然提出:如果增加某个条件之后,事件的概率会怎样变化的?它与原来的概率之间有什么关系?显然这类现象是常有的.  [例1] 设有一群共人,其中个女性,个是色盲患者. 个色盲患者中女性占个. 如果={从中任选一个是色盲}, ={从中任选一个是女性},此时, .如果对选取规则附加条件:只在女性中任选一位,换一句话说,发生之后,发生的概率(暂且记为) 自然是.  [例2] 将一枚硬币抛掷,观察其出现正反面的情况.设事件为“两次掷出同一面”,事件为“至少有一次为正面H”.现在来求已知事件已经发生的条件下事件发生的概率. 这里,样本空间.易知此属于古典概型问题.已知事件已发生,有了这一信息,知道不可能发生,即知试验所有可能结果所成的集合就是.中共有3个元素,其中只有属于.于是,在发生的条件下,发生的概率为  对于例1,已知  容易验证在发生的条件下,发生的概率  对于例2,已知  容易验证发生的条件下,发生的概率  对一般古典概型, 容易验证:只要,则在发生的条件下, 发生的概率,  总是成立的./content/07/9_482130.shtml
贝叶斯公式看起来很简单,但是在自然科学领域应用范围及其广泛。同贝叶斯公式残差是指与预测值()之间的差,即是实际观察值与回归估计值的差。在中,测定值与按预测的值之差,以表示。残差δ遵从N(0,σ2)。(δ-残差的均值)/残差的标准差,称为标准化残差,以δ*表示。δ*遵从N(0,1)。实验点的标准化残差落在(-2,2)区间以外的≤0.05。若某一实验点的标准化残差落在(-2,2)区间以外,可在95%将其判为异常实验点,不参与回归直线拟合。显然,有多少对,就有多少个残差。残差分析就是通过残差所提供的信息,分析出数据的可靠性、周期性或其它。
“残差”蕴含了有关模型基本假设的重要信息。如果回归模型正确的话, 我们可以将残差看作的观测值。它应符合模型的假设条件,且具有误差的一些性质。利用残差所提供的信息,来考察模型假设的合理性及数据的可靠性称为残差分析。残差有多种形式,上述为普通残差。为了更深入地研究某一自变量与因变量的关系,人们还引进了偏残差。此外, 还有学生化残差、预测残差等。以某种残差为纵坐标,其它变量为横坐标作散点图,即残差图 ,它是残差分析的重要方法之一。通常横坐标的选择有三种:(1) 的拟合值;(2);(3)当因变量的观测值为一时间序列时,横坐标可取观测时间或观测序号。残差图的分布趋势可以帮助判明所拟合的线性模型是否满足有关假设。如残差是否近似正态分布,是否方差齐次,变量间是否有其它非线性关系及是否还有重要自变量未进入模型等。.当判明有某种假设条件欠缺时, 进一步的问题就是加以校正或补救。需分析具体情况,探索合适的校正方案,如非线性处理,引入新自变量,或考察误差是否有自相关性。[1]
/p-.html& & http://blog.csdn.net/v_july_v/article/details/7577684(dm常用方法)
论坛徽章:18
本帖最后由 liyihongcug 于
15:22 编辑
/p-2.html&&(dm解决航线预测)
/link?url=LISjcJne5kEhH4SgIA3QkMv7WjTZxc8cEfBiqpJ4YM6ugVGzbiBD7MJkZEnxB6J8e5q3-SMPVEl6ppcQSWM-1X2iAYSJpLpWSpcK29Uuev7(ppt相当好)
“DEPENDNT”因变量“ZPRED”标准化预测值“ZRESID”标准化残差“DRESID”删除残差“ADJPRED”调节预测值“SRESID”学生化残差“SDRESID”学生化删除残差& && & 许多时候我们需要将回归分析的结果存储起来,然后用得到的残差、预测值等做进一步的分析,“保存”按钮就是用来存储中间结果的。可以存储的有:预测值系列、残差系列、距离(Distances)系列、预测值可信区间系列、波动统计量系列。是回归分析过程中输入、移去模型记录。具体方法为:enter(进入)
& && && && && && && && && && && && && && && && && && && && && & 输入/移去的变量
& && && && && && && && && && && && && && && && & 输入/移去的变量
模型输入的变量移去的变量方法
1Zscore(原油产量), Zscore(原煤产量), Zscore(焦炭消费量), Zscore(原油消费量), Zscore(煤炭消费量), Zscore(焦炭产量).输入 表1-3 输入的变量& &&&2.&&表1-4所示是模型汇总,R称为多元相关系数,R方(R2)代表着模型的拟合优度。我们可以看到该模型是拟合优度良好。& && && && && && && && && && && && && && && && && && && && && && &&&模型汇总模型汇总
模型RR 方调整 R 方标准 估计的误差
1.962.925.905..000表1-4 模型汇总& &&&3.表1-5所示是离散分析。,F的值较大,代表着该回归模型是显著。也称为失拟性检验。模型平方和df均方F
1回归25.66064.27745.397
残差2.07222.094
总计27.73228
& && && &表1-5 离散分析& && &4. 表1-6所示的是回归方程的系数,根据这些系数我们能够得到完整的多元回归方程。观测以下的回归值,都是具有统计学意义的。因而,得到的多元线性回归方程:Y=0.008+1.061x1+0.087 x2+0.157 x3-0.365 x4-0.105 x5-0.017x6(x1为煤炭消费量,x2为焦炭消费量,x3为原油消费量,x4为原煤产量,x5为原炭产量,x6为原油产量,Y是能源消费总量)结论:能量消费总量由主要与煤炭消费总量所影响,成正相关;与原煤产量成一定的反比。& && && && && && && && && && && && && && && && && && && && && && && & 系数& && && && && && && && && && && && && && && && && && && && && && && && && && && &系数
模型非标准化系数标准系数tSig.
B标准 误差beta
1(常量).008.057
Zscore(煤炭消费量)1.061.1261.0718.432.000
Zscore(焦炭消费量).087.101.088.856.401
Zscore(原油消费量).157.085.1591.848.078
Zscore(原煤产量)-.365.155-.372-2.360.028
Zscore(焦炭产量)-.105.150-.107-.697.493
Zscore(原油产量)-.017.070-.017-.247.807表1-6回归方程系数
& && &5.&&模型的适合性检验,主要是残差分析。残差图是散点图,如图1-11所示:
论坛徽章:18
本帖最后由 liyihongcug 于
16:32 编辑
&&dm方法和应用场合&&(svm三重境界 动画)
&&数学所有学科细分
正态分布的前世今生五 第一章 随机事件及其概率
  1 随机事件及其运算
  一、随机现象与随机试验
  二、样本空间
  三、随机事件
  四、随机事件间的关系与运算
  习题1-1
  2 随机事件的概率
  一、概率的统计定义
  二、概率的古典定义
  习题1-2(1)
  三、概率的几何定义
  四、概率的公理化定义与性质
  习题1-2(2)
  3 条件概率与全概率公式
  一、条件概率与乘法公式
  二、全概率公式与贝叶斯(Bayes)公式
  习题1-3
  4 随机事件的独立性
  一、事件的相互独立性
  二、伯努利(Bernoulli)概型及二项概率公式
  习题1-4
  总习题一
  第二章 随机变量及其分布
  1 离散型随机变量及其分布律
  一、随机变量的定义
  二、离散型随机变量及其分布律
  三、常用的离散型随机变量
  习题2-1
  2 随机变量的分布函数
  一、分布函数的概念
  二、分布函数的性质
  习题2-2
  3 连续型随机变量及其概率密度
  一、连续型随机变量的概率密度
  二、连续型随机变量的性质
  三、离散型与连续型随机变量的比较
  习题2-3
  4 几种常见的连续型随机变量
  一、均匀分布
  二、指数分布
  三、正态分布
  习题2-4
  5 随机变量函数的分布
  一、离散型情况
  二、连续型情况
  习题2-5
  6 二维随机变量及其联合分布函数
  一、二维随机变量的概念
  二、联合分布函数的定义及意义
  三、联合分布函数的性质
  习题2-6
  7 二维离散型随机变量
  一、联合分布律
  二、边缘分布律
  三、条件分布律
  习题2-7
  8 二维连续型随机变量
  一、联合概率密度
  二、边缘概率密度
  三、两种重要的二维连续型分布
  四、条件概率密度
  习题2-8
  9 随机变量的相互独立性
  一、随机变量相互独立的定义
  二、离散型随机变量独立的充要条件
  三、连续型随机变量独立的充要条件
  四、二维正态变量的两个分量独立的充要条件
  习题2-9
  10 两个随机变量的函数的分布
  一、离散型情况
  二、连续型情况
  习题2-10
  总习题二
  第三章 随机变量的数字特征
  1 数学期望
  一、离散型随机变量的数学期望
  二、连续型随机变量的数学期望
  三、随机变量的函数的数学期望
  四、数学期望的性质
  习题3-1
  2 方差
  一、方差的定义
  二、常见分布的方差
  三、方差的性质
  习题3-2
  3 协方差与相关系数
  一、协方差
  二、相关系数
  三、相关系数的意义
  习题3-3
  4 矩与协方差矩阵
  习题3-4
  总习题三
  第四章 大数定律与中心极限定理
  1 大数定律
  习题4-1
  2 中心极限定理
  习题4-2
  总习题四
  第五章 统计量及其分布
  1 总体与随机样本
  一、总体与个体
  二、随机样本与样本值
  习题5-1
  2 统计量与抽样分布
  一、X2分布
  二、t分布
  四、正态总体样本均值与样本方差的抽样分布
  习题5-2
  3 总体分布的近似描述
  一、样本频数分布与频率分布表
  三、经验分布函数
  习题5-3
  总习题五
  第六章 参数估计
  1 点估计
  一、法
  二、法
  三、极大似然估计法
  习题6-1
  2 估计量的评价标准
  二、有效性
  三、一致性
  习题6-2
  3 区间估计
  习题6-3
  4 正态总体参数的区间估计
  一、单个总体N( )的情形
  二、两个总体N( )和N( )的情形
  习题6-4
  5 单侧
  习题6-5
  总习题六
  第七章 假设检验
  1 假设检验的概念与步骤
  一、假设检验的基本概念
  二、假设检验的基本原理与方法
  三、两类错误
  四、假设检验的一般步骤
  习题7-1
  2 正态总体均值的假设检验
  一、单个总体N( )均值 的检验
  二、两正态总体均值差的检验
  三、基于成对数据的均值差检验
  习题7-2
  3 正态总体方差的假设检验
  一、单个总体N( )方差 的检验
  二、两正态总体方差比的检验
  习题7-3
  4 总体分布函数的假设检验
  习题7-4
  总习题七
  第八章 方差分析与回归分析
  1 单因素方差分析
  一、单因素试验
  二、单因素的方差分析
  三、不等重复的单因素试验方差分析
  习题8-1
  2 双因素方差分析
  一、双因素等重复试验的方差分析
  二、双因素无重复试验的方差分析
  习题8-2
  3 一元线性回归分析
  一、回归分析问题
  二、一元线性回归
  三、可线性化的一元非线性回归
  习题8-3
  4 多元线性回归分析
  一、回归的建立
  二、回归平面方程的显著性检验
  习题8-4
  总习题八
  附表1 标准正态分布表
  附表2 泊松分布表
  附表3 t分布表
  附表4 x2分布表
  附表5 F分布表
  附表6 相关系数显著性检验表残差 在回归分析中,测定值与按回归方程预测的值之差,以δ表示.残差δ遵从正态分布N(0,σ2).(δ-残差的均值)/残差的标准差,称为标准化残差,以δ*表示.δ*遵从标准正态分布N(0,1).实验点的标准化残差落在(-2,2)区间以外的概率≤0.05.若某一实验点的标准化残差落在(-2,2)区间以外,可在95%置信度将其判为异常实验点,不参与回归线拟合.所谓残差是指实际观察值与回归估计值的差.
随机误差(又称偶然误差) 是指测量结果与同一待测量的大量重复测量的平均结果之差.“同一待测量的大量重复测量的平均结果”指在重复条件下得到待测量的期望值或所有可能测得值的平均值.它的特点:大小和方向都不固定,也无法测量或校正.随机误差的性质是:随着测定次数的增加,正负误差可以相互低偿,误差的平均值将逐渐趋向于零.
17 世纪末,瑞士数学家 Bernoulli 注意到了一个有趣的现象:当 x 越大时, (1 + 1/x)^x 将会越接近某个固定的数。例如, (1 + 1/100)^100 ≈ 2.70481 , (1 + 1/ ≈ 2.71692 ,而 (1 + 1/1 则约为 2.71815 。 18 世纪的大数学家 Euler 仔细研究了这个问题,并第一次用字母 e 来表示当 x 无穷大时 (1 + 1/x)^x 的值。他不但求出了 e ≈ 2.718,还证明了 e 是一个无理数。
e 的用途也十分广泛,很多公式里都有 e 的身影。比方说,如果把前 n 个正整数的乘积记作 n! ,则有 Stirling 近似公式 n! ≈ √2 π n (n / e)^n 。在微积分中,无理数 e 更是大显神通,这使得它也成为了高等数学中最重要的无理数之一。/p/?pn=2&statsInfo=frs_pager&&e的x次方的导数等于本身,在科学中有很多求导只改变系数关系的函数,他们与x有关的部分都是以e指数出现,可以表示相位等等,10为底的对数可以写lg,e为底的就是自然对数ln,这两个应该没什么疑议的2的3次方 --& & log2&&8&&=3 计算机的话一般log的默认的底都是2…… Mathematica里边算自然对数就直接是Log[]。
/zgw21cn/archive//1361287.html&&------------------很清晰解释 多元线性回归模型假定被解释变量与多个解释变量之间具有线性关系,是解释变量的多元线性函数,称为多元线性回归模型。即 (1.1)其中为被解释变量,为个解释变量,为个未知参数,为随机误差项。被解释变量的期望值与解释变量的线性方程为: (1.2)称为多元总体线性回归方程,简称总体回归方程。对于组观测值,其方程组形式为: (1.3)即其矩阵形式为=+即 (1.4)其中为被解释变量的观测值向量;为解释变量的观测值矩阵;为总体回归参数向量;为随机误差项向量。总体回归方程表示为:(1.5)多元线性回归模型包含多个解释变量,多个解释变量同时对被解释变量发生作用,若要考察其中一个解释变量对的影响就必须假设其它解释变量保持不变来进行分析。因此多元线性回归模型中的回归系数为偏回归系数,即反映了当模型中的其它变量不变时,其中一个解释变量对因变量的均值的影响。由于参数都是未知的,可以利用样本观测值对它们进行估计。若计算得到的参数估计值为,用参数估计值替代总体回归函数的未知参数,则得多元线性样本回归方程: (1.6)其中为参数估计值,为的样本回归值或样本拟合值、样本估计值。其矩阵表达形式为: (1.7)其中为被解释变量样本观测值向量的阶拟合值列向量;为解释变量的阶样本观测矩阵;为未知参数向量的阶估计值列向量。样本回归方程得到的被解释变量估计值与实际观测值之间的偏差称为残差。 (1.8)据挖掘受到了很多学科领域的影响,其中数据库、机器学习、统计学无疑影响最大
[size=12.4488px][12]
地说,数据库提供数据管理技术,机器学习和统计学提供数据分析技术。由于统计学界往往醉心于
理论的优美而忽视实际的效用,因此,统计学界提供的很多技术通常都要在机器学习界进一步研究,
变成有效的机器学习算法之后才能再进入数据挖掘领域。从这个意义上说,统计学主要是通过机器
学习来对数据挖掘发挥影响,而机器学习和数据库则是数据挖掘的两大支撑技术。
从数据分析的角度来看,绝大多数数据挖掘技术都来自机器学习领域。但能否认为数据挖掘只
不过就是机器学习的简单应用呢?答案是否定的。一个重要的区别是,传统的机器学习研究并不把
海量数据作为处理对象,很多技术是为处理中小规模数据设计的,如果直接把这些技术用于海量数
据,效果可能很差,甚至可能用不起来。因此,数据挖掘界必须对这些技术进行专门的、不简单的
改造。例如,决策树是一种很好的机器学习技术,不仅有很强的泛化能力,而且学得结果具有一定
的可理解性,很适合数
据挖掘任务的需求。但
传统的决策树算法需要
把所有的数据都读到内
存中,在面对海量数据
时这显然是无法实现
的。为了使决策树能够
处理海量数据,数据挖
掘界做了很多工作,例如通过引入高效的数据结构和数据调度策略等来改造决策树学习过程,而这
其实正是在利用数据库界所擅长的数据管理技术。实际上,在传统机器学习算法的研究中,在很多
问题上如果能找到多项式时间的算法可能就已经很好了,但在面对海量数据时,可能连
算法都是难以接受的,这就给算法的设计带来了巨大的挑战。
数据挖掘与机器学习的关系(转) 19:28:47
我最近看国外的学校,把机器学习和数据发掘分开了,数据发掘主要是跟数据库打交道,学什么数据仓库,用Oracle软件。而机器学习好像是跟统计更加贴近。
我是个新人,学统计的,挺想在这个方向多学习学习,希望高手前辈们指教指教,看了一些别人的说明,也不太统一~~
统计系和计算机系在数据挖掘上做的工作有很大不同,我的感觉是,统计系把统计方法的一个子集成为数据挖掘(你看大部分数据挖掘的书所讲的不过就是那数十种方法而已),计算机系做的是数据库挖掘(软件、数据库算法);
至于机器学习呢,我引用牛津的Ripley教授的一句玩笑:
To paraphrase provocatively, 'machine learning is statistics minus any checking of models and
assumptions'.
& &-- Brian D. Ripley (about the difference between machine learning and statistics)
& && &useR! 2004, Vienna (May 2004)
大 致感觉就是,经典统计学猛推公式猛证明各种模型性质,机器学习不管这些,它的目的是预测性能更好的算法,这些模型(机器)有个特点,就是可以自我学习,提 高预测性能,按字面意思应该这样解释,但实际上并非所有的机器学习算法都有“学习”的特征的。所以,我认为大家只是在给统计学穿外套、做包装。
看过一篇文章认为机器学习是指那些具体算法,而数据挖掘则还包括建立和维护数据库,数据清洗,数据可视化以及结果的使用,要综合使用到数据库、人机交互、统计分析和机器学习的技术。
机器学习和数据挖掘以及统计之间的关系表面上很像,但是也有非常大的区别
相似点在于:都是数据分析的工具,三个领域内都有办法用来分析同一数据,基本原理都很浅显。
不同点在于:
统 计对模型的要求比较苛刻,如谢所引,一定要对模型的各种性质,比如大样本,小样本,是否无偏,有多大的variance,是否达到c-r bound,是否一致,最后最好还要有model checking. 机器学习很少关心模型在大样本的情况下如何,也不关心estimator的传统的性质--这也可能是因为他们的模型太过复杂,无法从数学上证明,这也从一 个侧面反映了为什么normal distribution在统计中的用处如此之大(有了它,很多模型的性质的研究就便的容易了),也有可能是因为他们一般都用在数据量大的地方--但是机 器学习却挺关心另一个东西--error,包括empirical error and structural error。举个简单的例子,我们眼看着神经网络和支持向量机这两种网络模型很流行,很容易懂,很有用,但是很多人却不知道它们来自何处,为什么能具有对 广泛的数据拥有广泛的用途,为什么精度会很高?--背后的原因很简单,它们两分别优化的是这两种error。而机器学习正是着眼于研究这两种error, 通过这两种error的研究垮身为一种具有很浓数学味道的学科--用了大量的分析学--而这一点也是它与数据挖掘的本质区别--数据挖掘只需要设计一张鱼 网(算法),在大量的数据中网到自己需要的模式,很多时候相当的需要运气。所以很多人都说这是渔夫的工作。
统计学习和机器学习的差别不怎 么大。倒是统计建模和机器学习有些差别。2001年Brieman(是这么拼的吗?)写了一篇文章,叫做statistical modeling:two cultures,介绍了之间的区别。统计建模是基于数据的概率分布的。因此统计模型中很重视推断inference,这些推断,比如假设检验,置信区 间,都是基于某种分布假设的。而机器学习最近本的问题,便是要最小化预测误差的某种度量。这两种方法对于世界的认知是不同的。统计建模,最终的目的,是获 得数据的概率分布,如果数据产生的分布已知,那么就天下大吉。统计建模认为世界可以用概率分布来逼近。而机器学习不这么认为,它不在乎数据产生于什么分 布,并且认为这个世界运行的方式是无法单纯用概率分布来解释的,比如神经网络。因此,它的目的,是预测的精准性。这是两种建模的方式,而归根结底,是对这 个世界认知的方式。
统计学习更倾向于模型,通常会基于某种已知的模型就行计算。而机器学习更倾向于数据本身,往往会通过某些算法(决策树,聚类,支持向量机,神经网络等)来从数据本身挖掘信息。
《Encyclopedia of Machine Learning》 的观点是,统计学习是机器学习的一个子类:
Inductive Learning
Statistical learning
Definition
Inductive learning is a subclass of machine learning that studies algorithms for learning knowledge based on statistical regularities. The learned knowledge typically has no deductive guarantees of correctness, though there may be statistical forms of guarantees.
当然这个分类没什么意义,手段都在互相渗透。统计学家喜欢叫统计学习,计算机科学人士喜欢叫机器学习,即使做的内容都差不多。
能讨论下统计学习和机器学习,统计模型和数据挖掘模型的区别吗?以前是听吴喜之老师和马景义老师讲的,当时听得很清楚,但时间太久就给忘了
是忘了怎么说出来,但是心里很明白也会用,唉就是那种感觉,你知道吗就是说不出来,难以言喻,会让人心里痒痒会抓狂的感觉。
要是能再听到一次就好了。
根据我的理解,机器学习是数据挖掘中的一种重要工具。然则数据挖掘不仅仅要研究、拓展、应用一些机器学习方法,还要通过许多非机器学习技术解决数据仓储、大规模数据、数据噪音等等更为实践问题。机器学习的涉及面也很宽,常用在数据挖掘上的方法通常只是“从数据学习”,然则机器学习不仅仅可以用在数据挖掘上,一些机器学习的子领域甚至与数据挖掘关系不大,例如增强学习与自动控制等等。所以我个人认为,数据挖掘是从目的而言的,机器学习是从方法而言的,两个领域有相当大的交集,但不能等同。
Tool获得系数a&&--?&&常量+ 3.457x& &(B)
stOpt(First Optimization)是七维高科有限公司(7D-Soft High Technology Inc.)独立开发,拥有完全的一套数学优化分析综合工具。在,,非线性复杂工程模型参数估算求解等领域傲视群雄,首屈一指,居世界领先地位。除去简单易用的界面,其计算核心是基于七维高科有限公司科研人员十数年的革命性研究成果【通用全局优化算法】(Universal Global Optimization - UGO),该算法之最大特点是克服了当今世界上在优化计算领域中使用迭代法必须给出合适初始值的,即用户勿需给出参数初始值,而由1stOpt给出,通过其独特的全局优化,最终找出最优解。以非线性回归为例,目前世界上在该领域最有名的工具包诸如OriginPro,Matlab,SAS,SPSS,DataFit,GraphPad,TableCurve2D,TableCurve3D等,均需用户提供适当的参数初始值以便计算能够收敛并找到最优解。如果设定的参数初始值不当则计算难以收敛,其结果是无法求得正确结果。而在实际应用当中,对大多数用户来说,给出(猜出)恰当的初始值是件相当困难的事,特别是在参数量较多的情况下,更无异于是场噩梦。而1stOpt凭借其超强的寻优,容错能力,在大多数情况下(大于90%),从任一随机初始值开始,都能求得正确结果。
论坛徽章:18
本帖最后由 liyihongcug 于
16:54 编辑
三种常用数据标准化方法/
常用数据标准化(normalization)方法
在数据分析之前,我们通常需要先将数据标准化(normalization),利用标准化后的数据进行数据分析。数据标准化也就是统计数据的指数化。数据标准化处理主要包括数据同趋化处理和无量纲化处理两个方面。数据同趋化处理主要解决不同性质数据问题,对不同性质指标直接加总不能正确反映不同作用力的综合结果,须先考虑改变逆指标数据性质,使所有指标对测评方案的作用力同趋化,再加总才能得出正确结果。数据无量纲化处理主要解决数据的可比性。数据标准化的方法有很多种,常用的有“最小—最大标准化”、“Z-score标准化”和“按小数定标标准化”等。经过上述标准化处理,原始数据均转换为无量纲化指标测评值,即各指标值都处于同一个数量级别上,可以进行综合测评分析。
一、Min-max 标准化
min-max标准化方法是对原始数据进行线性变换。设minA和maxA分别为属性A的最小值和最大值,将A的一个原始值x通过min-max标准化映射成在区间[0,1]中的值x',其公式为:
新数据=(原数据-极小值)/(极大值-极小值)
二、z-score 标准化
这种方法基于原始数据的均值(mean)和标准差(standard deviation)进行数据的标准化。将A的原始值x使用z-score标准化到x'。
z-score标准化方法适用于属性A的最大值和最小值未知的情况,或有超出取值范围的离群数据的情况。
新数据=(原数据-均值)/标准差
spss默认的标准化方法就是z-score标准化。
用Excel进行z-score标准化的方法:在Excel中没有现成的函数,需要自己分步计算,其实标准化的公式很简单。
  步骤如下:
  1.求出各变量(指标)的算术平均值(数学期望)xi和标准差si ;
  2.进行标准化处理:
  zij=(xij-xi)/si
  其中:zij为标准化后的变量值;xij为实际变量值。
  3.将逆指标前的正负号对调。
  标准化后的变量值围绕0上下波动,大于0说明高于平均水平,小于0说明低于平均水平。
三、Decimal scaling小数定标标准化
这种方法通过移动数据的小数点位置来进行标准化。小数点移动多少位取决于属性A的取值中的最大绝对值。将属性A的原始值x使用decimal scaling标准化到x'的计算方法是:
x'=x/(10*j)
其中,j是满足条件的最小整数。
例如 假定A的值由-986到917,A的最大绝对值为986,为使用小数定标标准化,我们用1000(即,j=3)除以每个值,这样,-986被规范化为-0.986。
注意,标准化会对原始数据做出改变,因此需要保存所使用的标准化方法的参数,以便对后续的数据进行统一的标准化。
除了上面提到的数据标准化外还有对数Logistic模式、模糊量化模式等等:
对数Logistic模式:新数据=1/(1+e^(-原数据))
模糊量化模式:新数据=1/2+1/2sin[派3.1415/(极大值-极小值)*(X-(极大值-极小值)/2) ] X为原数据spss 先描述将数据标准化
xcel数理统计常见命令 (
求和:& && && & =sum(a1:a2)算术平均值:& & =average(a1:a2)四舍五入:& && &=round(a,n) a是数值,n是小数点后位数众数:& && && & =mode(a1:a2)中位数:& && &&&=median(a1:a2)几何平均数:& & =geomean(a1:a2)& && & √ab调和平均数:& & =harmean(a1:a2)& && &&&各数值倒数算数平均数的倒数标准差:& && &&&=stdev(a1:a2)& && && &方差:& && && & =var(a1:a2) 标准误:& && &&&=stdev(a1:a2)/sqrt(n)相关系数:& && &=correl(a1:a2,b1:b2)皮尔森相关系数:=pearson(a1:a2,b1:b2)协方差:& && &&&=covar(a1:a2,b1:b2)t检验:& && && &=ttest(a1:a2,b1:b2,tails,type)tails=1,2表示单,双尾检验& && && && && && &type=1,2,3表示成对,同方差t检验,异方差t检验/?p=125
/content/11/73.shtml
itpub.net All Right Reserved. 北京皓辰网域网络信息技术有限公司版权所有    
 北京市公安局海淀分局网监中心备案编号: 广播电视节目制作经营许可证:编号(京)字第1149号

我要回帖

更多关于 最小二乘法原理 的文章

 

随机推荐