sas能实现adaboost算法实现是什么意思么

您所在位置: &
&nbsp&&nbsp&nbsp&&nbsp
基于普通样本的Adaboost人脸检测算法研究.pdf78页
本文档一共被下载:
次 ,您可免费全文在线阅读后下载本文档
文档加载中...广告还剩秒
需要金币:170 &&
你可能关注的文档:
··········
··········
学校代号:10532
湖南大学硕士学位论文
基于普通样本的Adaboost人脸
检测算法研究
JJ■■■■●1、J●■■■■■■●J_1
J●●●1●
Theresearchfacedetectionbased
generalsample
FiIlaceand
B.E. ArllluiU11iVersi够ofEcollomy 2007
Athesissubmittedin
satisf.action
Requirementsdegree
Engineering
ComputerApplication
GraduateSchool
正在加载中,请稍后...:转载时请以超链接形式标明文章原始出处和作者信息及本声明
&O& 要明确Adaboost是一种算法。
&O& 介绍一下Adaboost的历史。
Adaboost的前身的Boosting算法。
Boosting是一种提高任意给定学习算法准确度的方法。它的思想起源于Valiant提出的PAC(Probably Approximately Correct)学习模型。Valiant和Kearns提出了弱学习和强学习的概念,识别错误率小于1/2,也即准确率仅比随机猜测略高的学习算法称为弱学习算法;识别准确率很高并能在多项式时间内完成的学习算法称为强学习算法。同时,Valiant和Kearns首次提出了PAC学习模型中弱学习算法和强学习算法的等价性问题,即任意给定仅比随机猜测略好的弱学习算法,是否可以将其提升为强学习算法?如果二者等价,那么只需找到一个比随机猜测略好的弱学习算法就可以将其提升为强学习算法,而不必寻找很难获得的强学习算法。
1990年, Schapire最先构造出一种多项式级的算法,对该问题做了肯定的证明,这就是最初的Boosting算法。一年后,Freund提出了一种效率更高的Boosting算法。但是,这两种算法存在共同的实践上的缺陷,那就是都要求事先知道弱学习算法学习正确率的下限。
1995年, Freund和schapire改进了Boosting算法,提出了AdaBoost(Adaptive Boosting)算法[5],该算法效率和Freund于1991年提出的Boosting算法几乎相同,但不需要任何关于弱学习器的先验知识,因而更容易应用到实际问题当中。之后,Freund和schapire进一步提出了改变Boosting投票权重的AdaBoost.M1,AdaBoost.M2等算法,在机器学习领域受到了极大的关注。&
&O& Adaboost详解
Adaboost是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。
其算法本身是通过改变数据分布来实现的,它根据每次训练集之中每个样本的分类是否正确,以及上次的总体分类的准确率,来确定每个样本的权值。将修改过权值的新数据集送给下层分类器进行训练,最后将每次训练得到的分类器最后融合起来,作为最后的决策分类器。使用adaboost分类器可以排除一些不必要的训练数据特征,并将关键放在关键的训练数据上面。&& &
&O& 在线训练阶段流程图:
最终出来的结构应该是这样的:
N级分类器,每个分类器带一个自己的阈值;N个分类器的权重比例;整个强分类器的阈值
&O& 离线检测阶段流程图:
算法的流程理解了,可是要将这个算法完全自己实现,难度还是很大的。幸好已经有人做了这方面的工作。
如果要训练的是Haar特征,opencv的cvHaarTraining就足够了,什么adaboost,cascade,神马都不用管,按格式写好文件,等着结果就行了。
OPENCV的cvBoost,主要有这么几个函数
bool (。。。);
CvBoost::load(。。。)
float CvBoost::predict(。。。)
opencv的sample中有一个多类分类的问题,可以参考一下,不过读文件那块写得真烂。。。
强烈推荐!!!GML AdaBoost Matlab Toolbox
莫斯科大学的一个学生写得,很赞。里面有三种adaboost的实现,详细的说明文档,Examples。而且检测部分有c++的源码及工程。
有兴趣的朋友们看看说明文档就一目了然了,very good!!!
这就是我对adaboost的理解~~~
访问统计:>> adaboost算法,Java实现
adaboost算法,Java实现
所属分类:
下载地址:
Adaboost.rar文件大小:36.41 kB
分享有礼! 》
请点击右侧的分享按钮,把本代码分享到各社交媒体。
通过您的分享链接访问Codeforge,每来2个新的IP,您将获得0.1 积分的奖励。
通过您的分享链接,每成功注册一个用户,该用户在Codeforge上所获得的每1个积分,您都将获得0.2 积分的分成奖励。
这是一个用Java实现的adaboost分类器算法,上学期拿出一部分时间来做adaboost,做的时候做了一些笔记。论坛上也有一些正在读程序研究算法的人。我就把这份粗糙的笔记拿出来与大家分享一下吧。
Sponsored links
源码文件列表
温馨提示: 点击源码文件名可预览文件内容哦 ^_^
.classpath301.00 B11-06-14 21:54
.project384.00 B11-06-14 21:54
org.eclipse.jdt.core.prefs629.00 B11-06-14 21:54
AdaboostAlgorithm.class3.84 kB12-06-14 22:53
AdboostResult.class1.22 kB12-06-14 22:53
Adaboost.class3.48 kB11-06-14 21:55
Classifier.class279.00 B11-06-14 21:55
Data.class5.80 kB11-06-14 21:55
Datastructure.class692.00 B11-06-14 21:55
DistanceMajority.class2.19 kB11-06-14 21:55
Knn.class2.13 kB11-06-14 21:55
LearnerInterface$1.class715.00 B11-06-14 21:55
LearnerInterface$2.class2.64 kB11-06-14 21:55
LearnerInterface$3.class2.33 kB11-06-14 21:55
LearnerInterface$4.class1.80 kB11-06-14 21:55
LearnerInterface$5.class747.00 B11-06-14 21:55
LearnerInterface$6.class1.39 kB11-06-14 21:55
LearnerInterface$7.class2.19 kB11-06-14 21:55
LearnerInterface$8.class1.88 kB11-06-14 21:55
LearnerInterface$9.class1.69 kB11-06-14 21:55
LearnerInterface.class12.05 kB11-06-14 21:55
Linear.class2.17 kB11-06-14 21:55
Parzen.class2.09 kB11-06-14 21:55
main.class2.03 kB12-06-14 22:53
PerceptronApproach.class3.12 kB12-06-14 22:53
3.89 kB12-06-14 22:42
810.00 B12-06-14 22:40
2.21 kB12-06-14 22:54
2.78 kB12-06-14 22:48
&learner&0.00 B13-06-14 23:15
&.settings&0.00 B13-06-14 23:15
&bin&0.00 B13-06-14 23:15
&src&0.00 B13-06-14 23:16
&Adaboost&0.00 B13-06-14 23:15
(提交有效评论获得积分)
评论内容不能少于15个字,不要超出160个字。
评价成功,多谢!
下载Adaboost.rar
CodeForge积分(原CF币)全新升级,功能更强大,使用更便捷,不仅可以用来下载海量源代码马上还可兑换精美小礼品了
您的积分不足,优惠套餐快速获取 30 积分
10积分 / ¥100
30积分 / ¥200原价 ¥300 元
100积分 / ¥500原价 ¥1000 元
订单支付完成后,积分将自动加入到您的账号。以下是优惠期的人民币价格,优惠期过后将恢复美元价格。
支付宝支付宝付款
微信钱包微信付款
更多付款方式:、
您本次下载所消耗的积分将转交上传作者。
同一源码,30天内重复下载,只扣除一次积分。
鲁ICP备号-3 runtime:Elapsed:105.574ms - init:0.2;find:3.1;t:1.9;tags:0.3;related:57.9;comment:0.2; 27.69
登录 CodeForge
还没有CodeForge账号?
Switch to the English version?
^_^"呃 ...
Sorry!这位大神很神秘,未开通博客呢,请浏览一下其他的吧:转载时请以超链接形式标明文章原始出处和作者信息及本声明
adaboost是一种融合算法。与之相关的还有:bagging算法:有重复的从样本N中选取子集(但是总数量也是N,也就是说有重复),选出S个子集后分别构建分类器,最终结果由他们投票决定。boosting算法:多个分类器之间串行生成,后面的分类器要根据前面分类器的性能生成,而且最终结果由各个分类器加权和决定。
adaboost是boosting的一种,关键两点:1、不同分类器的权重跟他们的分类正确率相关(当然是准确率越高的,权重越大):其中&是分类器的错误率2、每一轮每个样本被选中的权重是变化的(如果上一轮被正确分类则下一轮的权重低),具体公式:
机器学习实战中adaboost的例子弱分类器仅仅使用了决策树桩(一个属性,一个决策点),最终错误率只有22%,而logistic回归却达到了35%。
代码地址(代码没有采用书本上的matrix,而统一使用了ndarray):
访问统计:

我要回帖

更多关于 sas 关联算法 的文章

 

随机推荐