小型深度学习gpu服务器群,有哪些好的呢

哪些GPU更适合深度学习和数据库_百度知道
哪些GPU更适合深度学习和数据库
我有更好的答案
gpu,图形处理芯片。
为您推荐:
其他类似问题
您可能关注的内容
换一换
回答问题,赢新手礼包
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。GPU用于深度学习有什么公司或者方案推荐吗?求个联系方式或者公司网址。谢谢_百度知道
GPU用于深度学习有什么公司或者方案推荐吗?求个联系方式或者公司网址。谢谢
提示该问答中所提及的号码未经验证,请注意甄别。
我有更好的答案
您可以搜索下LINKZOL,中文名字:联众集群了解下产品,上面有好多适合不同应用类型的深度学习GPU服务器产品,以及大规模并行计算应用产品。方案看您的预算,您可以参考这个:配置1:计算平台采用:LZ743GR-2G/Q系统:Ubuntu 14.04.3 x64CPU:Intel Xeon十核E5-.4GHz,8.0 GT/s)内存:原厂64GB内存 (8GB×8) DDR4 2133MHZ ECC-REG.(带内存校错技术,最大支持2T)系统硬盘:INTEL 2.5寸240G 企业级SSD固态硬盘(最大支持8块硬盘,类型:SATA,SSD)系统硬盘:希捷3.5寸4T 7200RPM 企业级硬盘(最大支持8块硬盘,类型:SATA,SSD;)GPU卡:2块NVIDIA TATAN-X GPU卡 (CUDA核心数3584个核心,12G DDR5 显存,最大2个GPU卡)电源:1200W High efficiency (96%)白金电源配置2:计算平台采用:LZ-748GT-4G系统:Ubuntu 14.04.3 x64CPU:Intel Xeon十八核E5-.6GHz,9.6 GT/s)内存:原厂256GB内存 (16GB×16) DDR4 2133MHZ ECC-REG.(带内存校错技术,最大支持2T)系统硬盘:2块INTEL 2.5寸480G 企业级SSD固态硬盘(最大支持8块硬盘,类型:SATA,SSD)系统硬盘:3块希捷3.5寸4T 7200RPM 企业级硬盘(最大支持8块硬盘,类型:SATA,SSD;)GPU卡:4块TESLA M40 GPU计算卡或者4块NVIDIA TATAN-X GPU卡 (CUDA核心数3584个核心,12G DDR5 显存,最大4个GPU卡)电源:2000W High efficiency (94%)冗余钛金电源
采纳率:100%
为您推荐:
其他类似问题
换一换
回答问题,赢新手礼包
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。深度学习中如何选择一款合适的GPU卡的一些经验和建议分享
深度学习是一个计算需求强烈的领域,GPU的选择将从根本上决定你的深度学习研究过程体验。在没有GPU的情况下,等待一个实验完成往往需要很长时间,可能是运行一天,几天,几个月或更长的时间。因此,选择一个好的,合适的GPU,研究人员可以快速开始迭代深度学习网络,几个月的实验可以在几天之内跑完,几天的实验可以在几个小时之内跑完。因此,在购买GPU时,正确的选择至关重要。那么应该如何选择适合的GPU呢?今天我们将深入探讨这个问题,并会给出一些合适的建议,帮助你做出适合的选择。
拥有高速GPU是开始学习深度学习的一个非常重要的方面,因为这可以帮助你快速获得实践经验,这是搭建专业知识的关键,有足够的时间将深度学习应用于解决新问题。如果没有这种快速的反馈,就需要花费太多的时间从错误中学习。因此,今天就谈谈如何选择一款合适的GPU来进行深度学习的研究。
首先给出一些总体的建议
最好的GPU整体(小幅度):Titan Xp综合性价比高,但略贵:GTX 1080 Ti,GTX 1070,GTX 1080性价比还不错且便宜:GTX 1060(6GB)
当使用数据集& 250GB:GTX Titan X(Maxwell) ,NVIDIA Titan X Pascal或NVIDIA Titan Xp
没有足够的钱:GTX 1060(6GB)
几乎没有钱:GTX 1050 Ti(4GB)
做Kaggle比赛:GTX 1060(6GB)适用于任何“正常”比赛,或GTX 1080 Ti用于“深度学习竞赛”
计算机视觉研究员:NVIDIA Titan Xp;不要买现在新出的Titan X(Pascal或Maxwell)
一名研究员人员:GTX 1080 Ti。在某些情况下,如自然语言处理,一个GTX 1070或GTX 1080已经足够了-检查你现在模型的内存需求
搭建一个GPU集群:这个优点复杂,另做探讨。
刚开始进行深度学习研究:从GTX 1060(6GB)开始。根据你下一步兴趣(入门,Kaggle比赛,研究,应用深度学习)等等,在进行选择。目前,GTX 1060更合适。
想尝试下深度学习,但没有过多要求:GTX 1050 ti(4或2GB)
应该选择什么样的GPU?NVIDIA GPU,AMD GPU或Intel Xeon Phi?
NVIDIA的标准库使得基于CUDA来建立第一个深度学习库变得非常容易,而AMD的OpenCL则没有这样强大的标准库。现在,AMD卡没有像这样好的深度学习库,所以就只有NVIDIA。即使未来有一些OpenCL库可能也可用,但我也会坚持使用NVIDIA,因为GPU计算能力或GPGPU社区非常强大,可以持续促进CUDA的发展,而OpenCL则相对有限。因此,在CUDA社区中,很容易获得不错的开源解决方案和可靠的建议。
此外,即使深度学习刚刚起步,NVIDIA仍然在持续深入的发展。这个选择得到了回报。而其他公司现在把钱和精力放在深度学习上,由于起步较晚,现在还是相对落后。目前,除NVIDIA-CUDA之外,其他很多软硬件结合的深度学习方案都会遇到或多或少的问题。
至于英特尔的Xeon Phi处理方案,官方广告宣称编程者可以使用标准的C代码进行开发,并很容易将代码轻松转换为经过加速的Xeon Phi代码。这个特性听起来很有趣,因为我们可以依靠丰富的C代码资源。但是,实际上只有很小部分的C代码是被支持的,所以这个特性目前并不是很有用,而且能够运行的大部分C代码都很慢。
给定预算下如何选择最快的GPU
在选择GPU时,首先要考虑的第一个GPU性能问题是什么呢:是否为cuda核心?时钟速度多大?内存大小多少?
这些都不是,对于深度学习性能而言,最重要的特征是内存带宽(memory bandwidth)。
简而言之:GPU针对内存带宽进行了优化,但同时牺牲了内存访问时间(延迟)。CPU的设计恰恰相反:如果涉及少量内存(例如几个数字相乘(3 * 6 * 9)),CPU可以快速计算,但是对于大量内存(如矩阵乘法(A * B * C)则很慢。由于内存带宽的限制,当涉及大量内存的问题时,GPU快速计算的优势往往会受到限制。当然,GPU和CPU之间还有更复杂的区别,关于为何GPU如此适用于处理深度学习问题,另做探讨。
所以如果你想购买一个快速的GPU,首先要关注的是GPU的带宽(bandwidth)。
通过内存带宽评估GPU的性能
随着时间的变化,CPU和GPU的带宽比较:带宽是GPU比CPU更快的主要原因之一。
带宽可以直接在芯片的体系结构上进行比较,例如像GTX 1080和GTX 1070这样的Pascal卡,其性能可以直接通过单独查看内存带宽进行比较。例如,GTX GB / s)比GTX
GB / s)快25%(320/256)。然而,不同的结构,例如像GTX 1080与GTX Titan X之类的Pascal与Maxwell不能直接比较,因为不同制造工艺(以纳米为单位),导致不同的架构对于如何利用给定的内存带宽的方式不同。这使得一切都有点棘手,但仅仅基于整体带宽就能让我们很好地评价GPU的速度到底有多快。为了确定在一个给定的条件下,一款GPU最快能多快,可以查看这个维基百科页面,以GB
/ s为单位查看带宽;这里列出的关于这些新卡(900和1000系列)的价格是相当准确,但较旧的卡明显比较便宜 - 特别是如果你通过eBay购买这些卡。例如,一个普通的GTX Titan X在eBay上的售价约为550美元。
另一个需要考虑的重要因素是,并不是所有的架构都与cuDNN兼容。由于几乎所有深度学习库都使用cuDNN进行卷积运算,这就限制GPU的选择只能是Kepler GPU或更高的版本,即GTX 600系列或更高版本。最重要的是,Kepler GPU一般都很慢。所以这意味着应该选择GTX 900或1000系列的GPU,以获得更好的性能。
为了粗略地估计一下这些卡在深度学习任务上的表现,我构建了一个简单的GPU等值图。如何阅读这个?例如,一个GTX 980与0.35 Titan X Pascal一样快,或者换句话说,Titan X Pascal几乎是GTX 980的三倍。
请注意,我自己并没有所有的这些卡,我并没有在所有这些卡上运行然后得到深度学习的benchemarks。比较的结果通过卡片规格以及一些可得到的计算benchmarks(一些用于加密货币挖掘的情况,这一性能在深度学习相关的计算能力上是可比较的)得出的。所以这些结果粗略的估计。实际的数字可能会有所不同,但通常错误应该是比较小的,卡的顺序应该是正确的。另外请注意,那些不足以充分利用GPU性能的小型网络会让GPU的性能看上去不好。例如,GTX 1080 Ti上的小型LSTM(128个隐藏单元;批量大小& 64)不会比在GTX
1070上运行速度快很多。为了获得图下表中显示的性能差异,需要运行更大的网络,比如具有1024个隐单元的LSTM(批量大小& 64)。
GPU之间粗略的性能比较。此比较建立于充分利用GPU性能情况下。
性价比分析
基于上面绘制的性能比较图,除以它们对应的价格,得到下图的基于成本的排名,越长代表性价比越高,该图某种程度上反映了不同卡之间的性价比差异。
成本效益对比图。请注意,这个数字在很多方面都有偏差,例如它没有考虑到内存。
但请注意,这种对GPU排名的衡量标准考虑并不全面。首先,没有考虑GPU的内存大小。从上面的图看,GTX 1050 Ti性价比最高,但当实际应用中你说需要的内存超过了1050 Ti所能提供的内存时,也不能用。类似地,使用4个小的GPU比仅使用1个大得GPU要复杂的多,因此小型GPU也有很多不足之处。此外,不能通过购买16 GTX 1050 Ti来获得4 GTX 1080 Ti的性能,因为还需要购买3台额外的昂贵的电脑。如果考虑这最后一点,即GPU的内存大小,得到下图所示性价比分析图。
综合考虑其他硬件的价格(比如搭载GPU的电脑价格),对GPU的性价比进行标准化。在这里,比较了一台完整的机器,包含4个GPU,配置价值约1500美元的其他高端硬件(CPU,主板等)条件下。
因此,在这种情况下,如果您想要购买更多的GPU,毫无疑问,内存越大的GPU性价比越高,因为相同内存需求条件下,不需要买更多的机器。但是,这种对GPU选择方法仍然存在缺陷。如果你预算金额有限,没有办法无法负担4 GTX 1080 Ti机器的价格,这种对比就毫无意义。因此,实际情况是,基于你有限的预算下,你可以购买到的哪种系统性能是最好的?同时,你还必须处理其他问题,例如:每天使用此GPU的时间有多长?想在几年内升级GPU或整个计算机?想在未来多长一段时间内卖掉当前的GPU,并购买新的更好的GPU?等等
所以你可以看到,做出正确的选择并不容易。但是,如果你对所有这些问题平衡的看待,就会得出类似于以下的这些结论。
一般的GPU选择建议
一般来说,我会推荐GTX 1080 Ti,GTX 1080或GTX 1070.他们都是优秀的显卡,如果你有钱,应该购买GTX 1080 Ti。GTX 1070比普通的GTX Titan X(Maxwell)便宜一些。GTX 1080的性价比比GTX 1070低一些,但是自GTX 1080 Ti推出以来,价格大幅下滑,现在GTX 1080的性价比已经能够与GTX 1070比拟。所有这三款显卡应该比GTX 980 Ti要好,因为它们具有11GB和8GB(而不是6GB)的内存。
8GB的内存可能看起来有点小,但是对于许多任务来说这已经足够了。例如对于Kaggle比赛,大多数图像数据,deep style和自然语言理解任务,这些你可能会遇到几个问题。
对于入门级的人来或是偶尔想用GPU来参加类似Kaggle比赛的人,GTX 1060是一个不错的选择。我不推荐内存只有3GB的GTX 1060 variant产品,因为6G的内存就已经很有限了。但是,对于许多应用来说,6GB就足够了。GTX 1060比普通的Titan X慢,但与GTX 980具有可比的性价比。
就综合性价比而言,10系列设计得非常好。GTX 1050 Ti,GTX 1060,GTX 1070,GTX 1080和GTX 1080 Ti都非常出色。GTX 1060和GTX 1050 Ti适用于初学者,GTX 1070和GTX 1080是适合于初创公司,部分研究和工业部门,而性能突出的GTX 1080 Ti,对于以上应用都合适。
不推荐NVIDIA Titan Xp,因为它的性价比太昂贵了。可以用GTX 1080 Ti代替。然而,NVIDIA Titan Xp在计算机视觉研究领域中仍然有一定的使用,用于处理大数据集或视频数据。在这些领域中,按照每GB的内存数量计算,NVIDIA Titan Xp只比GTX 1080 Ti多1GB,但在这种情况下也具有一定的优势。不推荐NVIDIA Titan X(Pascal),因为NVIDIA Titan Xp速度更快,但价格几乎相同。但由于市场上这些GPU的稀缺性,如果你找不到NVIDIA Titan
Xp,也可以购买Titan X(Pascal)。
如果你已经有了GTX Titan X(Maxwell)GPU,那么升级到NVIDIA Titan X(Pascal)或NVIDIA Titan Xp就没有必要了。
如果你缺钱,但是你需要12GB内存来开展你的研究,那么GTX Titan X(Maxwell)也是一个很好的选择。
对于大多数研究人员来说,GTX 1080 Ti已经完全够用了。大多数研究和大多数应用,GTX 1080 Ti的内存完全够用。
在NLP中,内存限制并不像计算机视觉领域那么严格,所以GTX 1070 / GTX 1080也是不错的选择。通常是,需要解决什么样的任务以及如何进行试验,决定了需要选择哪一款GPU,无论是GTX 1070还是GTX 1080。当你选择GPU时,应该按照类似的方式推理。考虑一下你在做什么任务,如何运行你的实验,然后尝试找到适合这些要求的GPU。
对于预算有限的人来说,选择条件则更加有限。亚马逊网络服务上的GPU相当昂贵和缓慢,如果只有少量的资金,也是一个不错的选择。我不推荐GTX 970,因为它很慢,即使在某些限制条件下也是相当昂贵的(在eBay上150美元),并且存在与卡启动相关的内存问题。相反,建议花更多一点的钱购买更快,有更大的内存,没有内存问题的GTX 1060。如果实在买不起GTX 1060,我建议选择配备4GB内存的GTX 1050 Ti。4GB内存可能有限,但至少可以开展进行你的研究,只是需要你对模型进行一些调整,也可以得到良好的性能。
GTX 1050 Ti一般来说也是一个不错的选择,如果你只是想尝试一下深度学习,而没有其他更多的需求。
有了这篇文章中提供的所有信息,你应该能够考虑选择哪一种合适的GPU,综合考虑所需的内存大小,带宽(GB/s)大小和GPU的价格,这一思路在未来很久也适用。最后,如果有足够的资金,建议购买GTX 1080 Ti,GTX 1070或者GTX 1080。如果刚刚开始研究深度学习,或者资金有限,可以购买GTX 1060。如果资金实在有限,可以购买GTX 1050 ti;如果想要从事计算机视觉研究,可以购买Titan Xp。
往期内容推荐:
更多在NLP方面应用的经典论文、实践经验和最新消息,欢迎关注公众号“与NLP”或“DeepLearning_NLP”或扫描二维码添加关注。
没有更多推荐了,不懂GPU深度学习,何以谈人工智能?
一年半以前,AlphaGo完胜李世乭的围棋赛让深度学习(Deep Learning)这个名词家喻户晓,再度掀起了人工智能的新一波热潮。
其实深度学习背后的神经网络基础理论早在上世纪50年代就已提出,经过几起几落的发展,到了21世纪初,多层神经网络算法也日趋成熟。深度学习理论早在十多年以前就有重要突破,为何直到近年才出现爆发?
这不得不提到2012年的一场竞赛...
2012年,Geoffrey E. Hinton(与Yann LeCun 和Yoshua Bengio并称为深度学习三驾马车)的弟子Alex Krizhevsky在ILSVRC-2012的图像分类比赛中使用2块Nvidia GTX 580 GPU训练的多层神经网络(后来被称为AlexNet)以15.3%的top-5测试错误率摘得冠军,而使用传统方法的第二名的成绩是26.2%,整整提高了10多个百分点。这也成为了深度学习发展史上的里程碑事件,从此深度神经网络一炮走红,此后ILSVRC的优胜者一直被深度神经网络霸占。
可以说深度学习爆发有两个主要原因, 一个是像ImageNet这样的大规模数据集的出现,而另一个重要原因就是计算能力的提高,而这主要得益于GPU用于深度学习的加速,尤其是深度学习训练的加速
Alex当时使用的数据集包含120万张高清图片,受限于单块GTX 580 GPU 3GB的内存,他们使用了2块GPU来训练他们包含6000万参数和65万神经节点的网络,当时花了5~6天的时间。可以想象,没有GPU的加速,要完成如此大规模的数据集的多层神经网络训练要花费多长的时间。
随着深度网络层数的增加,训练集动辄以T为单位计算,现在深度学习的训练已经离不开GPU了,而GPU的计算能力也在不断的提升,以满足深度学习训练的计算需求。
所以,对AI开发者来说,掌握GPU深度学习技能几乎是一项必备技术了。在get到这一技能之前,当然得调整姿势了...
前方高能!
当然,大家也不妨聊聊:
TensorFlow、Caffe、MxNet...这些框架哪一款是你最中意的?
如果你是深度学习初学者,希望学习到哪些知识点?
如果你已是老司机,又有哪些经验分享给大家呢?
大家也可以畅谈一下,用GPU进行深度学习时踩过的那些坑!!!
参与互动就有机会获得《多核与GPU编程:工具、方法及实践》、纪念版T恤及阿里云代金券哟!
阿里云代金券 x 2
纪念版T恤 x 1
多核与GPU编程 x 5
获奖情况:
按默认排序
按时间排序
<dd id="vote_num_
最为一名AI下的DeepLearning的痴粉儿。对于第一个问题:TensorFlow、Caffe、MxNet...这些框架哪一款是你最中意的?就目前来看TensorFlow是我最中意的框架,先给出TensorFlow官网的一个简单描述:TensorFlow? is an open source software library for numerical computation using data flow graphs. Nodes in the graph represent mathematical operations, while the graph edges represent the multidimensional data arrays (tensors) communicated between them. The flexible architecture allows you to deploy computation to one or more CPUs or GPUs in a desktop, server, or mobile device with a single API. TensorFlow was originally developed by researchers and engineers working on the Google Brain Team within Google's Machine Intelligence research organization for the purposes of conducting machine learning and deep neural networks research, but the system is general enough to be applicable in a wide variety of other domains as well.再给出现在在用TensorFlow的大公司有哪些:ARM,Google,Mi,SAP,JD,Intle,ebay,dropbox.等等(来源https://www.tensorflow.org/)
一方面是由于TensorFlow是Google开发的(毕竟是大公司的光环吗),根据之前的Google开发的系统,例如Android,Google大脑。都是很有前瞻性,有很普及,在整个学术界及工业界甚至为人类都是做出贡献的。另一方面呢:就是技术方面了。多种语言接口:TensorFlow是相对高阶的机器学习库,用户可以方便地用它设计神经网络结构,而不必为了追求高效率的实现亲自写C++或CUDA18代码。除了核心代码的C++接口,TensorFlow还有官方的Python、Go和Java接口,是通过SWIG(Simplified Wrapper and Interface Generator)实现的,这样用户就可以在一个硬件配置较好的机器中用Python进行实验,并在资源比较紧张的嵌入式环境或需要低延迟的环境中用C++部署模型。SWIG支持给C/C++代码提供各种语言的接口,因此其他脚本语言的接口未来也可以通过SWIG方便地添加。大大增添了灵活度,以方便适应不同的用户群体,对于一些高配的电脑用户,可以使用python简单的实现,对于一些配置低下的用户,可以采用嵌入式c++的方法实现。数据并行处理上:在数据并行模式上,TensorFlow有独立的Variable node,不像其他框架有一个全局统一的参数服务器,因此参数同步更自由。核心是一个数据计算的流式图(graph)。移植性:TensorFlow的另外一个重要特点是它灵活的移植性,可以将同一份代码几乎不经过修改就轻松地部署到有任意数量CPU或GPU的PC、服务器或者移动设备上。分布式计算上:TensorFlow的用户能够将训练好的模型方便地部署到多种硬件、操作系统平台上,支持Intel和AMD的CPU,通过CUDA支持NVIDIA的GPU(最近也开始通过OpenCL支持AMD的GPU,支持Linux和Mac,window支持不如Linux和mac好。对于其他框架说实话,用的不太顺手。也不是特别熟悉,就不在详谈了。对于第二个问题:如果作为一个初学者,我希望学校到哪些知识点?我算是已经学习了深度学习6个月了,回想一下我曾经作为深度学习初学者的话,其实对于一门完全不知道的领域,我觉得还是有一本浅显易懂的书籍带着你由浅入深的慢慢的去领悟,去系统的学习比较好。就我自己的经验来讲吧,我推荐两本书(也算是网站吧):1.http://neuralnetworksanddeeplearning.com/2.吴恩达的lecture和讲义(网易公开课上有)说一下经历吧,我详细读了第一本书3遍,每一遍都有不一样的领悟,吴恩达的lecture我看了两遍,叫我了解了ML内部的数学原理。作为一个刚入行的学生来讲,正要去做实验,需要用到GPU和多核的进行并行的计算去训练,我希望可以得到一些关于GPU的编程的知识。(自然也希望,如果有可能中奖,请发《多核与GPU编程》谢谢。)对于第三点吧:如果我是一个老司机,分享一下经验?我不是老司机,但是我周围有好多老司机。说两点吧:1.软技能
要有耐心,做项目,做实验,要持之以恒,要有耐心,一个实验做上一个月很是正常,尤其是比较大的实验。2硬技能:数学和编程。一个理论一个实践。其实编程就是数学公式的实现,编程我推荐python和MATLAB,其实我更推荐python,毕竟MATLAB贵。而且好多都是黑匣子,不是开源,不利于自己的编程技术的成长。本人也在不断在和周围大牛学习,打算将所学的知识写在公众号上和大家一起分享。会不断推出自己对于机器学习的 解。公众号id
。感谢关注。希望和大家一起交流,最近公众号在建设当中,待建设完毕,就可以推送文章了。望大家谅解。写了一个半小时,很累了,我要去吃饭了。??
写的很好,和独到。所有问题都有涉猎。
上面那一个评论算是自卖自夸了,不过作为对小白的建议还是,要仔细的阅读上面的每一句话。都是经验之谈。
写的很不错,谢谢。我看了你推荐的网站。很是不错。
打赏《多核与GPU编程》一本!
<dd id="vote_num_
TensorFlow和Caffee都很喜欢,目前使用较多的是TF。
目前是深度学习小白,希望学习一些深度学习常用库,如何利用高性能计算加速深度学习算法以及深度学习在实际场景下的运用。
GPU至今还未安装成功,笔记本不支持(泪奔o(&_&)o )
如果送我本《CUDA专家手册:GPU编程权威指南》的话,学习完也许我会考虑考虑把遇到的坑说出来哦,哈哈~
更正一下哈~这次赠送的是《多核与GPU编程:工具、方法及实践》:)
好吧,/(ㄒoㄒ)/~~《多核与GPU编程》
本身人工智能、深度学习、GPU是大趋势,多学点儿总是好的,不进步就是退步……
书已经拿到了,该分享一下你遇到的坑了吧...发一个话题吧!
OK,多谢~
<dd id="vote_num_
如果你是深度学习初学者,希望学习到哪些知识点?正在学TensorFlow和Caffee,主要是看了吴恩达的讲座和一些资料,希望能精通深度学习对语义分析及图像分析处理。Caffee开始于2013年底,由UC Berkely的Yangqing Jia老师编写和维护的具有出色的卷积神经网络实现
优点:在计算机视觉和图像处理领域Caffe做的非常好。
缺点: 架构不够灵活且对递归网络和语言建模的支持很差。其扩展性也稍差
TensorFlow:Google开源的其第二代深度学习技术
优点:是一个理想的RNN(递归神经网络)API和实现,TensorFlow使用了向量运算的符号图方法,使得新网络的指定变得相当容易,支持快速开发。
缺点:速度慢,内存占用较大。(比如相对于Torch)
大家也可以畅谈一下,用GPU进行深度学习时踩过的那些坑!!!最大的坑是前两天媳妇否决了我买1080Ti显卡的要求,现在用的机器实际一点的计算都跑不了,说多了都是泪啊。要是中奖,就给一本《多核与GPU编程:工具、方法及实践》吧。
恭喜你获得《多核与GPU编程:工具、方法及实践》一本,所以你还不发一个话题庆祝一下么....hah
<dd id="vote_num_
其实我自己在阿里云买的产品都不懂,大部分连用来做什么怎么用都不知道,就觉得未来肯定会需要用到
真爱粉啊,那就给你一张代金券吧!哈哈
说的太好了
<dd id="vote_num_
对GPU的依赖,应该是深度学习的内容,越来越多的与图像有关吧。还有小部分纯文本数据,就主要依靠CPU了,GPU派不上太大用场。不过这世界毕竟主要由各种实体构成,并不是建立在单纯的逻辑关系之上。所以技术越发展,对图像处理的需求也就越大,最终对GPU依赖也越大。之前公众主要关注CPU,主要还是科技发展的问题。目前的科学水平对于AI来讲,总体还是相当低的。就像马云说的,才刚起步。所以限于科技水平,只能优先注重发展CPU,依赖CPU。现在科学水平开始有点起来了,所以就可以往前迈进一步,更接近现实一点,开始发展GPU。一旦GPU发展起来了,研究人员就能做更多的事情了。比如基于GPU的深度学习,在图像分析方面,会远超基于CPU的深度学习。这是天然的优势。就像单纯的科学计算,以后的量子计算机会远超现在的计算机一样。
比特币的出现,也从另一个方面大力推动了GPU的发展。虽然计算的侧重点不同,但是至少拉动了整个GPU行业的发展。
术业有专攻,将来仍有小部分的深度学习会基于CPU,但是更多的深度学习会依赖于GPU。希望楼主给本《多核与GPU编程:工具、方法及实践》让我也有机会拜读学习下。
你的愿望已经达成...
多谢,又一个小目标实现了,没比一个亿差
<dd id="vote_num_
推一下caffe,我是从torch7转到caffe,caffe速度优势很大,学习线也很清晰,就顺着blob、layer、net这个方向走,接触过dl的人跑跑官网的例子很快就能上手,然后单步调试感受一下在网络的传播过程就算入门了,caffe在github上的wiki有不错的教程实现定制化,就按着神经网络的运行过程看保证学会caffe。
打赏意见霸气的纪念版T恤,哈哈
<dd id="vote_num_
最近在使用阿里云机器学习pai上的深度学习框架-tensorflow ,最大的感受就是帮助文档不够详实,刚开始使用可能不太好用,如果能在这方面丰富一下就完美了!现在机器学习pai可以免费开通哦,大家可以加官方群了解QQ:
给你一张代金券
<dd id="vote_num_
深度学习框架很多,目前用的最多的是Caffe,挺好用,应用于图像分类,我们主要用在心电信号分类上,结果还不错;硬件的话真得跟得上,我的笔记本是游戏本,跟其他本比跑的快点儿。想做实际应用的话,可以根据国外的期刊文章跑模型,上手会快一点!
想要那本书,求赏赐
哈哈,打赏!
谢谢,最近在找工作都没怎么上来,真的很感谢
<dd id="vote_num_
我是一个初学者,对GPU根本不了解,但是我可以学啊!
大家一起学
<dd id="vote_num_
未来这会发展的越来越完善,人类要接受这个事实,人脑是比不过电脑的,但我们可以控制电脑,所以说它们势必是人类最得力的助手
人脑比不过电脑与人可以控制电脑是个悖论
我觉得没错啊,你记忆力有电脑强?
<dd id="vote_num_
机器学习必是未来的时代,先用阿里云的平台开始学习,如果能获得《多核与GPU编程:工具、方法及实践》将会入门更快,我也会多多分享我的学习过程
<dd id="vote_num_
看大拿头像先得夸句厉害了!我就是冲你来的请导师转身赐予我本本吧。
<dd id="vote_num_
作为初学者,我更希望能够知道深度学习这个领域需要掌握的核心知识和技能有哪些,以及知识脉络是怎样的
<dd id="vote_num_
代金券滴不要,衣服和书都口以,就说一个,nvidia有个支持caffe的图形化工具叫digits新人上手更容易。
<dd id="vote_num_
如何开始在阿里云上实现tensenflow的功能
<dd id="vote_num_
礼品还不寄出吗?我等不及了???
<dd id="vote_num_
显卡又要涨价了啊呜呜呜~
<dd id="vote_num_
非要gpu吗,我觉得fpga发展前景也不错啊
<dd id="vote_num_
作为初学者,感觉GPU不仅带来了运算速度和效率的提升,更可以说是把代码具象化。
<dd id="vote_num_
登录后可参与话题,请
资浅小编,关注人工智能、机器学习、深度学习、计算机视觉、语音识别、NLP....
阿里云机器学习是基于阿里云分布式计算引擎的一款机器学习算法平台。用户通过拖拉拽的方式可视化的操作组件来进行试验,...
GPU云服务器是基于GPU应用的计算服务,多适用于视频解码,图形渲染,深度学习,科学计算等应用场景,该产品具有实...
是基于语音识别、语音合成、自然语言理解等技术,为企业在多种实际应用场景下,赋予产品“能听、会说、懂你”式的智能人...
为您提供简单高效、处理能力可弹性伸缩的计算服务,帮助您快速构建更稳定、安全的应用,提升运维效率,降低 IT 成本...

我要回帖

 

随机推荐