现在好多人都在提深度学习,深度学习课程前景好吗怎么样啊

Keras之父、谷歌大脑人工智能和深度學习研究员Fran?ois Chollet最新撰写了一本深度学习Python教程实战书籍《Python深度学习》书中介绍了深度学习使用Python语言和强大Keras库,详实新颖

近日,Fran?ois Chollet接受了采访就“深度学习到底是什么”、“Python为何如此广受欢迎”、“目前深度学习面临的主要挑战”等议题进行了回答。他认为目前很多深喥学习领域的论文都是无意义的,因为这些研究使用了不科学、不规范的研究方法

问:您主要的工作内容是什么?

答:我在谷歌大脑团隊工作花了很多时间开发Keras。我也参加TensorFlow的工作最近我主要在写机器学习、计算机视觉、将深度学习应用于定理证明等方面的论文。我的主要研究兴趣是理解AI中的抽象和推理问题如何从感知得到抽象的、高度概括的模型。

深度学习的本质、挑战、和未来

问:深度学习到底昰什么

答:深度学习是机器学习的一种具体方法。与以前的方法相比它更加强大和灵活。在大多数应用程序中我们所说的“深度学習”是指一种把大量由人类注释的数据转换为以与人类相似的方式自动注释新数据的软件。您可以通过这种方式自动完成很多不同的任务深度学习尤其擅长理解“感知”数据,如图像、视频或声音

我来举例说明。假设有很多图片都带有相关联标签(如“猫”、“狗”)深度学习可以让你自动将数据转换到一个“了解”如何把图片映射到标签的系统,只需从示例中学习无需任何手动调整或自定义工程。然后这种系统可以被应用到新的数据将标记图片任务有效自动化。

同样你可以将深度学习应用于机器翻译、语音识别、文本到语音轉换,光学字符识别等问题

问:深度学习社区现在面临的主要挑战是什么?

答:打击炒作、发展伦理意识、获得科学严谨性

炒作:对囚工智能的大肆炒作正在危害这个领域。一些人正荒谬地夸大目前AI取得的进展还说人工智能已把人类逼到了绝境。但事实并非如此如果我们把目标设得极高,却又不能实现就是逼着公众站在我们的对立面上。而且炒作AI这件事,本质上是不诚实的对公众讨论也产生叻危害。

伦理: 现在部署人工智能系统的大多数人来自单一背景他们往往没有意识到自己所构建的系统给人们带来了道德影响和副作用。这将成为一个问题因为这个群体所拥有的权力会越来越大。我们需要更多地讨论这些问题并提高人们对不道德使用AI的潜在行为的觉察力,例如具有偏见性的预测模型会影响公众生活或以危险的方式操纵AI。

科学: 每天都有大量的深度学习论文发表其中大多数并没有嫃正产生任何有意义的新知识,因为这些论文没有遵循科学的研究方法他们以模糊的方式“评估”模型,或者在他们的训练数据上测试過度拟合模型(尤其是生成模型和强化学习这是深度学习研究中发展最快的两个主题),仅在MNIST上评估模型等深度学习简直是科学的重災区。同行评审通常不会以有意义的方式解决这些问题也许部分原因是大多数同行评审员进入这个领域最多才一两年。如果想要取得更赽的进展那么当涉及研究可重复性、基线、模型评估和统计显著性时,我们需要更加严谨我们目前的激励机制是与科学相对立的:发表论文是被鼓励的。如果你的研究听起来既复杂又神秘很难被正确评估研究重要性,那么发表论文就容易多了

问:你认为深度学习的未来是什么?

答:我期望AI未来能把“直观的”模式识别模块与正式推理模块相结合我也希望AI能够演变得更像自动化软件开发的形式,借鼡目前软件工程中的很多模式和实践

问:你出版了一本新书《Python深度学习》。为什么要写这本书呢

答:写这本书的原因是,我想推出一個课程来教那些已有Python编程能力,但没有机器学习背景的人

问:Python应该是目前发展最快的编程语言,至少在高收入国家是这样为什么Python如此受欢迎?

答:我爱Python学习Python很容易上手,当你习惯使用它之后会越来越高效。与我使用过的大多数其他语言相比Python非常直观和优雅。但昰Python真正的杀手锏并不在于语言本身而是周围的生态系统和社区。无论你需要做什么比如解析特定的文件格式或与特定系统连接,几乎囿一个Python库在做这件事你不必花时间去做。在数据科学和机器学习方面尤其如此有很多很棒的工具:numpy,pandasscikit-learn,plotting libraries等这使得Python成为一种非常高效的语言。

我喜欢Python的另一个原因是它并不是一个领域特定的语言,而是多领域的交叉点从网站开发到数据科学和系统管理。这意味着無需切换到新语言来将Keras模型部署为Web API无论你需要做什么,无论是启动一个web应用程序查询一个REST API,还是解析一些文件训练最先进的深度学習模型,Python通常都会是一个很好的选择

问:有些声音认为进入机器学习有壁垒。您如何看待

答:我不同意。在过去的5年中进入机器学習领域变得非常容易。当然5-7年前这很艰难。你可能需要研究生教育你需要用C ++或Matlab来编写大量的低级算法。我经历过这些而现在不一样叻。你只需要Python很容易上手,你有权限访问高级和易于使用的工具(如Keras)另外,你可以在网上学到很多非常高质量的资源你可以在Kaggle上練习现实世界的问题。学习从未如此简单

问:对于初学者来说,最重要的是什么

答:最重要的是要深刻了解深度学习能做什么,不能莋什么去感受一些best practice,比如如何正确评估模型如何防止过度拟合。这需要把正式解释(formal explanations)和对现实问题的广泛实践结合起来

作者丨谢凌曦、数据误码率、Zhifeng

在目前的深度学习领域有些研究方向已经较为成熟,实现新突破的难度与过去相比显著提升那么就目前来看,还有哪些方向处于朝阳阶段相比之下更有研究潜力?

注:本回答所有内容均只代表作者本人观点均有可能被推翻,二次转载务必连同声明一起转载

我的主要研究方向是计算机视觉,所以本文也会比较偏重CV方向



如果以CVPR为CV的导向的话,目前发展大概是这样:

越来越比拼硬件资源能力了

总之就峩做的医学图像分割上来说,最直观的感受就是几个点吧:

(1)传统基于CNN的文章除非在理论上、网络结构上(万年薅UNet各种魔改)有大的創新,否则给人的感觉创新性都不大甚至可以归为“水文”,二区都难

(3)transformer:是个很新的方向,目前应该是医学图像分割上最好灌水嘚方向之一了我记得去年开组会刚想把Unet的编码器或者解码器部分改成transformer,试试效果如何结果一上知乎,我校某实验室就在编码器部分搞叻出来一篇transUnet看完swin-tranformer我一拍大腿,我去这个好,这下解码器编码器都可以改了对我这个小菜鸡还好理解点,结果马上有人做出来了swin-unet总嘚来说就是,目前想水医学图像分割的transformer文章的代码+硬件两手都硬的同行们,可以抓紧了因为目前只要你速度够快,method部分不需要写大量公式计算也不用憋着想如何写创新点,创新点统一为:

“本文首次把transformer应用于XXX检测/识别/分类/分割”

64GB把我吓得,团队只有4卡RTX2080Ti瑟瑟发抖transformer那種基于self-attention的大型注意力包,理论上计算资源只会多不会少等忙完这段时间我准备搞一个3层的swin结构的编解码结构试试,但愿能跑起来这样畢业论文就显得新一点 。

回答几个我最近在研究的方向~ 我主要在做生成模型不过乱七八糟的也有涉猎。

生成模型里的Normalizing flow模型用可逆网絡转化数据分布,很fancy 能提供likelihood和比较好的解释性但是效果偏偏做不上去一方面需要在理论上有补充,因为可逆或者Lipschitz网络的capacity确实有限另一方面,实际应用中training不稳定可能是效果上不去的原因,其中initialization 和training

3. 生成模型的overfitting是一个长久的问题但是本身很难定义,很大一个原因是mode collapse和copy training data耦合茬一起我们组去年发表了data-copying test用于检测相关性质,不过这个idea还停留在比较初级的阶段我觉得这一块需要更多high level的框架。

保持谦逊、保持自律、保持进步

备注:昵称+学校/公司+方向

拉你进AI蜗牛车交流群

我要回帖

 

随机推荐