foundations of machine learning ex3有中文版吗

相关资料推荐
不要用于商业,有意联系qq:
这里一门是美国经典傅里叶分析教材;另一门统计学与计算机学科交叉,对于数据挖掘、人工智能有用。
This books reports the latest developments and futuristic trends in ML. New theory and novel applications of …
Machine Learning
机器学习方面经典书。
计算机视觉 与机器学习 资料
Machine Learning and Computer Network (English)
Google Research - Professor Mohri [Foundations of Machine Learning] 谷歌研究院 机器学习基础
Google Research - Professor Mohri [Foundations of Machine Learning] 谷歌研究院 机器学习基础
Google Research - Professor Mohri [Foundations of Machine Learning] 谷歌研究院 机器学习基础
在此可输入您对该资料的评论~
资料阅读排行
(window.slotbydup=window.slotbydup || []).push({
id: '2371234',
container: s,
size: '300,250',
display: 'inlay-fix'
该用户的其它资料
请选择举报的类型
赌博犯罪类
资料评价:
所需积分:12435人阅读
【Machine Learning】(35)
课讲内容这门课以8周设计,分成 4个核心问题,每个核心问题约需2周的时间来探讨.每个约2个小时的录影中,每个小时为一个主题,以会各分成4到5个小段落,每个段落里会有一个后多个随堂的练习.我们在探讨每个核心问题的第二周。依上所述,課程的規畫如下:When Can Machines Learn?&[何时可以使用机器学习]第一周:() 第一讲:The Learning Problem&[机器学习问题]第二讲:Learning to Answer Yes/No&[二元分类]第二周:&作业一: () 第三讲:Types of Learning&[各式機器學習問題] ( )第四讲:Feasibility of Learning&[机器学习的可行性] ( )Why Can Machines Learn?&[为什么机器可以学习]第三週: 第五讲:Training versus Testing&[训练与测试]&()第六讲:Theory of Generalization&[举一反三的一般化理论]第四週:&作业二: ()& 第七讲:The VC Dimension ()第八讲:Noise and Error ()How Can Machines Learn?&[机器可以怎么样学习]第五週: 第九讲:Linear Regression&[线性回归] ()第十讲:`Soft' Classification&[軟性分類]第六週: ()十一讲:Multiclass Classification&[多類別分類]&十二讲:Nonlinear Transformation&[非線性轉換]How Can Machines Learn Better?&[機器可以怎麼樣學得更好]第七週: (
)十三讲:Hazard of Overfitting&[過度訓練的危險]&十四讲:Regularization&[探制調適]第八週: 十五讲:Validation&[自我檢測]&十六讲:Three Learning Principles&[三個機器學習的重要原則]延伸阅读預备知识(機率統計、線性代數、微分之基本知識)参考书籍, Abu-Mostafa, Magdon-Ismail, Lin, 2013.经典文献F. Rosenblatt. The perceptron: A probabilistic model for information storage and organization in the brain. Psychological Review, 65(6):386-408, 1958. (第二講:Perceptron 的出處)W. Hoeffding. Probability inequalities for sums of bounded random variables. Journal of the American Statistical Association, 58(301):13–30, 1963. (第四講:Hoeffding's Inequality)Y. S. Abu-Mostafa, X. Song , A. Nicholson, M. Magdon-ismail. The bin model, 1995. (第四講:bin model 的出處)V. Vapnik. The nature of statistical learning theory, 2nd edition, 2000. (第五到八講:VC dimension 與 VC bound 的完整數學推導及延伸)Y. S. Abu-Mostafa. The Vapnik-Chervonenkis dimension: information versus complexity in learning. Neural Computation, 1(3):312-317, 1989. (第七講:VC Dimension 的概念與重要性)參考文獻A. Sadilek, S. Brennan, H. Kautz, and V. Silenzio. nEmesis: Which restaurants should you avoid today? First AAAI Conference on Human Computation and Crowdsourcing, 2013. (第一講:ML 在「食」的應用)Y. S. Abu-Mostafa. Machines that think for themselves. Scientific American, 289(7):78-81, 2012. (第一講:ML 在「衣」的應用)A. Tsanas, A. Xifara. Accurate quantitative estimation of energy performance of residential buildings using statistical machine learning tools. Energy and Buildings, 49: 560-567, 2012. (第一講:ML 在「住」的應用)J. Stallkamp, M. Schlipsing, J. Salmen, C. Igel. Introduction to the special issue on machine learning for traffic sign recognition. IEEE Transactions on Intelligent Transportation Systems 13(4): , 2012. (第一講:ML 在「行」的應用)R. Bell, J. Bennett, Y. Koren, and C. Volinsky. The million dollar programming prize. IEEE Spectrum, 46(5):29-33, 2009. (第一講:Netflix 大賽)S. I. Gallant. Perceptron-based learning algorithms. IEEE Transactions on Neural Networks, 1(2):179-191, 1990. (第二講:pocket 的出處,注意到實際的 pocket 演算法比我們介紹的要複雜)R. Xu, D. Wunsch II. Survey of clustering algorithms. IEEE Transactions on Neural Networks 16(3), 645-678, 2005. (第三講:Clustering)X. Zhu. Semi-supervised learning literature survey. University of Wisconsin Madison, 2008. (第三講:Semi-supervised)Z. Ghahramani. Unsupervised learning. In Advanced Lectures in Machine Learning (MLSS ’03), pages 72–112, 2004. (第三講:Unsupervised)L. Kaelbling, M. Littman, A. Moore. reinforcement learning: a survey. Journal of Artificial Intelligence Research, 4: 237-285. (第三講:Reinforcement)A. Blum. On-Line algorithms in machine learning. Carnegie Mellon University,1998. (第三講:Online)B. Settles. Active learning literature survey. University of Wisconsin Madison, 2010. (第三講:Active)D. Wolpert. The lack of&a priori&distinctions between learning algorithms. Neural Computation, 8(7): . (第四講:No free lunch 的正式版)T. M. Cover. Geometrical and statistical properties of systems of linear inequalities with applications in pattern recognition. IEEE Transactions on Electronic Computers, 14(3):326–334, 1965. (第五到六講:Growth Function)B. Zadrozny, J. Langford, N. Abe. Cost sensitive learning by cost-proportionate example weighting. IEEE International Conference on Data Mining, 2003. (第八講:Weighted Classification)G. Sever, A. Lee. Linear Regression Analysis, 2nd Edition, Wiley, 2003. (第九講:Linear Regression 由統計學的角度來分析;第十二到十三講:Polynomial Transform 後再做 Linear Regression)D. C. Hoaglin, R. E. Welsch. The hat matrix in regression and ANOVA. American Statistician, 32:17–22, 1978. (第九講:Linear Regression 的 Hat Matrix)D. W. Hosmer, Jr., S. Lemeshow, R. X. Sturdivant. Applied Logistic Regression, 3rd Edition, Wiley, 2013 (第十講:Logistic Regression 由統計學的角度來分析)T. Zhang. Solving large scale linear prediction problems using stochastic gradient descent algorithms. International Conference on Machine Learning,& (第十一講:Stochastic Gradient Descent 用在線性模型的理論分析)R. Rifkin, A. Klautau. In Defense of One-Vs-All Classification. Journal of Machine Learning Research, 5: 101-141, 2004. (第十一講:One-versus-all)J. Fürnkranz. Round Robin Classification. Journal of Machine Learning Research, 2: 721-747, 2002. (第十一講:One-versus-one)L. Li, H.-T. Lin. Optimizing 0/1 loss for perceptrons by random coordinate descent. In Proceedings of the 2007 International Joint Conference on Neural Networks (IJCNN ’07), pages 749–754, 2007. (第十一講:一個由最佳化角度出發的 Perceptron Algorithm)G.-X. Yuan, C.-H. Ho, C.-J. Lin. Recent advances of large-scale linear classification. Proceedings of IEEE, 2012. (第十一講:更先進的線性分類方法)Y.-W. Chang, C.-J. Hsieh, K.-W. Chang, M. Ringgaard, C.-J. Lin. Training and testing low-degree polynomial data mappings via linear SVM. Journal of Machine Learning Research, 11(2010), . (第十二講:一個使用多項式轉換加上線性分類模型的方法)M. Magdon-Ismail, A. Nicholson, Y. S. Abu-Mostafa. Learning in the presence of noise. In Intelligent Signal Processing. IEEE Press, 2001. (第十三講:Noise 和 Learning)A. Neumaier, Solving ill-conditioned and singular linear systems: A tutorial on regularization, SIAM Review 40 (1998), 636-666. (第十四講:Regularization)T. Poggio, S. Smale. The mathematics of learning: Dealing with data. Notices of the American Mathematical Society, 50(5):537–544, 2003. (第十四講:Regularization)P. Burman. A comparative study of ordinary cross-validation, v-fold cross-validation and the repeated learning-testing methods. Biometrika, 76(3): 503–514, 1989. (第十五講:Cross Validation)R. Kohavi. A study of cross-validation and bootstrap for accuracy estimation and model selection. In Proceedings of the 14th International Joint Conference on Artificial intelligence (IJCAI ’95), volume 2, , 1995. (第十五講:Cross Validation)A. Blumer, A. Ehrenfeucht, D. Haussler, and M. K. Warmuth. Occam’s razor. Information Processing Letters, 24(6):377–380, 1987. (第十六講:Occam's Razor)关于更多讨论与交流,敬请关注本博客和新浪微博.
参考知识库
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:825116次
积分:12689
积分:12689
排名:第819名
原创:417篇
转载:14篇
译文:18篇
评论:304条
关注图像处理与分析、图像工程、信息隐藏、算法研究、软件项目管理、计算机视觉、机器学习、物联网等学科和产业,希望结识更多同道中人。
微信公众号: songzitea
拒绝索取源代码
文章:43篇
阅读:54350
文章:23篇
阅读:45063
文章:60篇
阅读:70778
文章:33篇
阅读:79749
文章:10篇
阅读:44055
文章:46篇
阅读:130047
文章:46篇
阅读:171244
(2)(4)(6)(9)(27)(22)(6)(9)(6)(7)(4)(1)(2)(4)(10)(9)(4)(4)(5)(5)(14)(9)(6)(7)(5)(4)(5)(1)(2)(3)(6)(11)(6)(14)(34)(25)(21)(19)(6)(13)(15)(1)(2)(31)(4)(7)(7)(11)(3)(1)(1)(3)(1)(1)(2)(1)(2)Mehryar Mohri -- Foundations of Machine Learning - Book
(for instructors only): follow the link and click on "Instructor Resources" to request access to the solutions.
Foundations of Machine Learning
Mehryar Mohri, Afshin Rostamizadeh, and Ameet Talwalkar
MIT Press, 2012.&Foundations of Machine Learning
秒后自动跳转到登录页
(奖励5下载豆)
快捷登录:
举报类型:
不规范:上传重复资源
不规范:标题与实际内容不符
不规范:资源无法下载或使用
其他不规范行为
违规:资源涉及侵权
违规:含有危害国家安全等内容
违规:含有反动/色情等内容
违规:广告内容
详细原因:
任何违反下载中心规定的资源,欢迎Down友监督举报,第一举报人可获5-10下载豆奖励。
视频课程推荐
Foundations of Machine Learning
上传时间:
技术分类:
资源评价:
(2位用户参与评价)
已被下载&74&次
理论性较强的机器学习教程
本资料共包含以下附件:
Foundations of Machine Learning.pdf
51CTO下载中心常见问题:
1.如何获得下载豆?
1)上传资料
2)评论资料
3)每天在首页签到领取
4)购买VIP会员服务,无需下载豆下载资源
5)更多途径:点击此处
2.如何删除自己的资料?
下载资料意味着您已同意遵守以下协议:
1.资料的所有权益归上传用户所有
2.未经权益所有人同意,不得将资料中的内容挪作商业或盈利用途
3.51CTO下载中心仅提供资料交流平台,并不对任何资料负责
4.本站资料中如有侵权或不适当内容,请邮件与我们联系()
5.本站不保证资源的准确性、安全性和完整性, 同时也不承担用户因使用这些资料对自己和他人造成任何形式的伤害或损失
下载2856次
下载1375次
下载2169次
下载1050次
相关专题推荐
本专题主要收集了Auto CAD2010系列视
VideoStudio Pro X6 (会声会影 X6)
汇集各大知名厂商设备、服务器VISIO图
数字电子技术,西安电子科技大学视频
网络收集的中国科技大学龚升教授的《
收集个人认为较为经典的Selenium资料
收集个人认为教好的LoadRunner相关的
2016年杭州·云栖大会在10月13日9点拉
从基础开始学习黑客的基本知识,了解
最基础的黑客技术资料,详细介绍了黑
意见或建议:
联系方式:
您已提交成功!感谢您的宝贵意见,我们会尽快处理2912人阅读
&&&&&&& 大家好,我是Mac Jiang,今天和大家分享coursera-NTU-機器學習基石(Machine Learning Foundations)-作业1的习题解答。笔者是在学习了Ng的Machine Learning之后开始学习这门课程的,但还是感觉收获颇丰。Ng的课程主要站在计算机专业的角度,教你如何使用机器学习,注重方法而不是数学推导,是一门很好的入门教程;而林轩田老师的机器学习基石是站在统计分析角度,证明机器学习算法为什么要这么做,更加注重于理论的证明,如果你想更加深入了解机器学习,或者想自己编写机器学习算法的,学习这门课还是很有必要的!
&&&&&&& 首先声明,笔者在这里提供一些作业解答的目的不是为了让你得到更高的分数,而是对一些学习上有困难的同学提供一些帮助。笔者的目的是提供一种可行的思路,但是说实话,这里面很多题目笔者也没能够理解。所以如果各位博友发现任何错误或者有更好的思考方法,请留言联系,谢谢!再次提醒:请不要以此博客作为通过考试的用途,还是更好学习、理解课程的途径!
其他解答看汇总帖:
(1)题意:下列哪些问题最适合用机器学习解决
(2)分析:适合用机器学习解决的问题主要包括以下特点
&&&&&&&&&&&&&&&&&&& a.存在某些目标,隐藏规则(underlying pattren)
&&&&&&&&&&&&&&&&&&& b.这些规则我们难以定义,不知道如何写下了
&&&&&&&&&&&&&&&&&&& c.有学习这个隐藏规则的资料data
&&&&&&&&i.区分一个数是否为素数:错误,我们可以很简单写出素数的规则,只能被1或他本身整除
&&&&&&& ii.确定信用卡是否被盗刷:正确,这是极其学习里面的异常点检测问题
&&&&&&& iii.确定一个物体的落地时间:错误,这里有物理学公式,h=0.5*g*t^2
&&&&&&& iv.确定拥挤路口交通信号灯的最佳循环:正确
&&&&&&& v.确定某种药物的推荐服用者年龄:正确,可以通过聚类找出效果好的群
(3)答案:ii,iv,v
(1)题意:问题2-5,都是确定相对于每种任务的最佳机器学习算法。下象棋,利用不同的策略并把输出作为反馈
(2)分析:这显然是增强学习(reinforcement)。增强学习是指设计回报函数,若决定进行一步,如果这部的表现结果较好,则给一些正回报,如果这一部表现结果较差,则返回一些负的回报。这道题显然,利用输出作为反馈,可以知道这步棋的好坏,给予相应的回报。
(3)答案:reinforce Learning
(1)题意:在没给定标题的情况下分类书本
(2)分析:这显然是无监督学习(unsupervised learning)。书本没有给定标题,即样本没有y值。可以根据数的单词,厚度等特征聚类,将特征相近的聚为一类,这是无监督学习
(3)答案:unsupervised learning
(1)题意:区别一张图片中是否有人脸,给定1000张有人脸的图片和10000张没有人脸的图片
(2)分析:已经知道图片是有人脸的和没人脸的,每张图片都有标签了,显然是监督学习(supervised learning )
(3)答案:supervised learning
(1)题意:有选择的安排实验,快速知道癌症药的潜在左右
(2)分析:这里的答案是active learning。我的理解是,我们想知道这种药的潜在左右,所以我们有选择性的安排实验,这是一个提问的过程,是主动学习。
(3)答案:active learning
(1)题意:太复杂了,自己看吧~就是要我们分析N+1到N+L有几个偶数
(2)暴力解决:56~101有23个偶数
&&&&&&&& N为奇,N+L为奇:N=55,N+L=101,(N+1~N+L)56~101有23个,选项1结果为22错误,选项2结果为24错误,排除1和2
&&&&&&&& N位奇,N+L为偶:N=55,N+L=100,(N+1~N+L)56~100有23个偶数,选项5为22错误
&&&&&&&& 可以严重,其他两种情况对选项3都是正确的
(3)答案:选项3,下整减下整
(1)题意:f can generate D的意思是,f可以拟合D中的每个元素。题目让我们求这些f的总个数,即所有能拟合D的f个数。
(2)分析:f拟合D,而他对D以外的样本的拟合不管。D以外的样本共有L个,即这些f对这L个样本的拟合程度是任意的,共2^L种
(3)答案:2^L
(1)分析:虽然看了上面的解答,但还是有一点疑惑。 & 我个人理解不知道对否,写在下面:
由于f产生任何的D的概率都是一样的,因此对于test data而言本身没有任何‘规律’可言,因此无论我选用哪一个algorithm(当然,这个algorithm产生的g结果都是-1或1),对test data来说其实都是一样的‘糟糕’。因此这个EOTS的数学期望是相等的。---这是别人的解答
(2)答案:最后一项
(1)题意:假设u为箱子内橙色的弹珠的比例,v为我们抽取10个计算出来的橙色弹珠比例,如果u=0.5,那么v=u的概率
(2)分析:由于u=0.5,我们抽出10个,那么要求抽出5个橙色的。说明:我们用C(n)(m)表示概率中从n个位置抽取m个的组合情况,则这道题可以理解为从10个位置抽取出5个位置放橙色,然后其他位置放绿色。那就是C(10)(5) * (0.5)^5 * (0.5)^5 = (10*9*8*7*6)/(1*2*3*4*5) *(0.5)^10 = 0.24
(3)答案:0.24
(1)题意:和上面这道题一样,问u=0.9时,v=u的概率
(2)分析:要v=0.9,那么久要抽出9个黄色的,而每次抽出黄的概率为u=0.9,抽出绿色概率为0.1。故抽出九个的橙色概率为:C(10)(9) * (0.9)^9 * 0.1=0.39
(3)答案:0.39
11.第十一题
(1)题意:如果u=0.9,那个v小于等于0.1的概率
(2)分析:v小于等于0.1可以分为两种情况,v=0和v=0.1;
&&&&&&&&&&&&&&&&&& v=0.1时,C(10)(1) * 0.9 * (0.1)^9 = 9 * 10^(-9)
&&&&&&&&&&&&&&&&&&&v=0时,0.1^(10) = 10^(-10)
&&&&&&&&&&&&&&&&&& 共9.1 * 10^(-9)
(3)答案:9.1 * 10^(-9)
12.第十二题
(1)题意:利用Hoeffding Inequality计算 当u=0.9时v小于等于0.1的概率
(2)分析:Hoeffding Inequality为 P([v-u] 大于 epsilon) 小于等于 2* e^(-2*N*epsilon^2),N为抽样个数,带入计算就可以了
(3)答案:5.52 * 10^(-6)
13.第十三题
(1)题意:有四种筛子,每个筛子有六个面,标号1-6
&&&&&&&&&&&&&&&&& A:所有偶数面被涂为橙色,所有奇数面被涂为绿色
&&&&&&&&&&&&&&&&& B:所有奇数面被涂为橙色,所有偶数面被涂为绿色
&&&&&&&&&&&&&&&&& C:所有1-3被涂为橙色,4-6被涂为绿色
&&&&&&&&&&&&&&&&& D:所有1-3倍涂为绿色,4-6被涂为橙色
袋子中每种骰子的数量都有无限多个,而且每种骰子数量相同,问:一次取5个筛子,问这些筛子有,1全为橙色的概率。
(2)分析:由于只有B,C的1是橙色的,所以我们取5个要么是B类的要么是C类的。那么取到骰子位B或C的概率为0.5
&&&&&&&&&&&&&&&&&& 那么,5个都为B或C的概率为:0.5^5 = 8/256
(3)答案:8/256
14.第十四题
(1)题意:抽5个筛子,那么至少有一种数字全为橙色的概率
(2)分析:1全为橙色:B,C&& 2全为橙色:A,C&&& 3全为橙色:B,C&& 4全为橙色:A,D&&& 5全为橙色B,D&& 6全为橙色:A,D
&&&&&&&&&&&&&&&&&&& 即我们要不取出的全为B,C,要么取出的全为A,C,要么取出的全为A,D,要么取出的全为B,D& 共2^5 *4种
&&&&&&&&&&&&&&&&&&& 这些中,全为A,全为B,全为C,全为D被重复算了一遍,所以要减去4
&&&&&&&&&&&&&&&&&&& 概率为(4* 2^5& -4)/(4^5) = 31/256
(3)答案:31/256
第15题到17题的C++实现:
第18题到20题的C++实现:
其他解答看汇总帖:
参考知识库
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:39982次
排名:千里之外
原创:33篇
评论:127条
文章:32篇
阅读:39371
(1)(1)(7)(22)(1)(1)

我要回帖

更多关于 machine learning ex5 的文章

 

随机推荐