我想问你有没有像手机那样充电满的直接用的电池功能用爆米机,100到200左右价格机吗?

一把叉子的喜欢 | LOFTER(乐乎) - 让兴趣,更有趣
LOFTER for ipad —— 让兴趣,更有趣
一把叉子 的喜欢
&nbsp&nbsp被喜欢
&nbsp&nbsp被喜欢
{list posts as post}
{if post.type==1 || post.type == 5}
{if !!post.title}${post.title|escape}{/if}
{if !!post.digest}${post.digest}{/if}
{if post.type==2}
{if post.type == 3}
{if !!post.image}
{if post.type == 4}
{if !!post.image}
{if !!photo.labels && photo.labels.length>0}
{var wrapwidth = photo.ow < 500?photo.ow:500}
{list photo.labels as labs}
{var lbtxtwidth = Math.floor(wrapwidth*(labs.ort==1?labs.x:(100-labs.x))/100)-62}
{if lbtxtwidth>12}
{if !!labs.icon}
{list photos as photo}
{if photo_index==0}{break}{/if}
品牌${make||'-'}
型号${model||'-'}
焦距${focalLength||'-'}
光圈${apertureValue||'-'}
快门速度${exposureTime||'-'}
ISO${isoSpeedRatings||'-'}
曝光补偿${exposureBiasValue||'-'}
镜头${lens||'-'}
{if data.msgRank == 1}{/if}
{if data.askSetting == 1}{/if}
{if defined('posts')&&posts.length>0}
{list posts as post}
{if post_index < 3}
{if post.type == 1 || post.type == 5}
{if !!post.title}${post.title|escape}{/if}
{if !!post.digest}${post.digest}{/if}
{if post.type == 2}
{if post.type == 3}
{if post.type == 4}
{if post.type == 6}
{if drlist.length>0}
更多相似达人:
{list drlist as dr}{if drlist.length === 3 && dr_index === 0}、{/if}{if drlist.length === 3 && dr_index === 1}、{/if}{if drlist.length === 2 && dr_index === 0}、{/if}{/list}
暂无相似达人,
{if defined('posts')&&posts.length>0}
{list posts as post}
{if post.type == 2}
{if post.type == 3}
{if post.type == 4}
{if post.type == 6}
this.p={ dwrMethod:'queryLikePosts',fpost:'1d0f388e_ae39e5e',userId:,blogListLength:30};韩媒:国际油价下跌令中国“乐开花” 一批批油轮驶向中国港口
导读:日 06:57
来源:凤凰财经
凤凰财经讯 在国际油价一路下跌,破49美元至五年半新低之际,有媒体这样形容中国储备石油“一批接着一批油轮正频繁驶向中国港口。”
事实上,早在去年10月份,彭博社援引一家机构的数据称,仅在10月18日上午10点,各条海运路线上就已经有80艘巨型油轮奔向中国,而在过去的两年时间里,平均每天向中国运输石油的油轮数量也仅为63艘。
根据汤森路透石油研究和预测的估值显示,中国2014年12月的原油总进口量首次超过3100万吨,相当于每日超过700
韩媒:国际油价下跌令中国“乐开花”据韩国YTN新闻1月7日报道,与2014年最高点相比,近日国际油价下降了50%以上。有分析认为,由于低油价会对经济发展有很大帮助,因此中国将成为油价下跌最大的受惠国。据报道,有着“世界工厂”之称的中国与美国、沙特、俄罗斯等国家成为世界四大产油国,中国同时也是世界最大的原油进口国。专家分析,每桶原油平均油价从100美元下降20%的话,中国财政将会增加500亿美元;如果下降30%,中国的经济成长率最多可以增长1%。报道称,国际油价跌至去年的一半的同时,中国在管理自己的“表情”。中国在油价下跌后于去年10月进口了1800万桶原油,为史上最多。中国经济学家马黎明曾表示,低油价对中国的经济发展十分有利。而新一年低油价持续的话,或将动摇日本等国的证券市场,但对中国证券市场反而没太大影响。报道指出,油价下跌对于世界各国都是“悲喜交加”,但对中国具有反射利益,因而中国在“无声地微笑”。(记者刘洋)中国战略储备石油:一批批油轮驶向中国港口日 06:57来源:凤凰财经凤凰财经讯 在国际油价一路下跌,破49美元至五年半新低之际,有媒体这样形容中国储备石油“一批接着一批油轮正频繁驶向中国港口。”事实上,早在去年10月份,彭博社援引一家机构的数据称,仅在10月18日上午10点,各条海运路线上就已经有80艘巨型油轮奔向中国,而在过去的两年时间里,平均每天向中国运输石油的油轮数量也仅为63艘。根据汤森路透石油研究和预测的估值显示,中国2014年12月的原油总进口量首次超过3100万吨,相当于每日超过700万桶,这比之前创下的月度进口纪录高位还高出逾10%。而据路透估计,中国去年12月原油进口量创纪录高位,全年为充实战略储备而准备的原油较2013多出一倍。不过,分析师并不太认为中国的大肆购买可以支撑起国际油市,油价自2014年6月起已经跌去逾50%。“关于中国增加战略油储的行动,我们认为这绝对是个意外之举。从他们的经济数据来看,我们预计中国的原油进口量将不会增加了。”Phillip Futures的分析师Daniel Ang说道,“我们预计中国的原油进口不会长时间维持在这样的水平。”国际油价持续下跌新年伊始,国际原油价格像开了闸的洪水一泻千里,屡创新低。1月7日,作为国际原油标杆的布伦特原油终于跌破每桶50美元大关,回到2009年5月的历史低位,与2014年6月份时最高每桶115美元的价格相比,更是跌去近57%。当原油市场开启“疯狂”模式,整个金融市场都不得安宁。股市大跌,避险资金大量涌入以美债为主的国债市场,全球国债收益率出现暴跌;以俄罗斯为首,被动加入石油价格战的原油出口国早已苦不堪言,而中日韩等原油进口国则笑开了花。高盛预计,2015年油价将持续高波动,由于全球原油供应充裕,需求疲弱,在市场找到新的平衡点之前,油价仍存在继续下行的风险。在达到新的供需平衡之前,伊朗等新兴市场石油输出国面临最大挑战,而中国等新兴市场石油进口国则是最大受益者。中国等国家受益仅从短期来看,中国无疑是此轮“石油大战”中最大的赢家。作为世界第一大石油进口国,中国约60%的石油需求依靠进口。据中国能源经济研究中心称,如果油价持续下跌,到今年年底,中国将省下高达300亿美元。在国际油价大跌的背景下,除了中国加大石油储备外,事实上还有很多其他好处。中国正通过多种方式勾勒石油消费路线,包括发布《能源发展战略行动计划(年)》(以下简称《计划》),连续提高成品油消费税,以降低石油消费占比;加大原油进口,增加石油战略储备;批复上期所原油期货,试图从一个油价的被动接受者,变为石油消费中价格的主动掌控者等。同时,在环保战略与能源安全的背景下,未来5年石油消费在中国将稳步下调;而原油期货市场的开放,使中国谋求在国际原油市场中拥有更多的议价权力,也将倒逼国内的石油市场迎来国际的市场化竞争。在具体行业影响方面,有媒体分析认为,对中国航空业、航运成本、传统汽车等将从中受益。国际金融时报则认为,油价暴跌中国今年的国内生产总值(GDP)可能会比之前预测的提高0.4至0.7个百分点。影响世界经济安信证券证券最近发布的一份报告认为,在国际油价大跌的背景下,将会给世界经济带来10个问题(详细报告):问题1、如果油价太低,石油就会被留在地下。问题2、油价下跌已经对页岩油的开采和海上钻井产生影响。问题3、页岩油业务对美国就业具有巨大的影响。问题4、低油价往往会导致引发广泛后果的债务违约。如果违约成为普遍情况,可能会影响银行存款和国际贸易。问题5、低油价会导致石油出口国崩溃,并且几乎损失其出口的所有石油。问题6、油价下跌给消费者带来的好处可能比油价上涨给消费者带来的不利影响要小得多。问题7、由于油价较低,期待的海外原油和液化天然气销售很可能会消失。问题8、如果油价低,可再生能源的增加将变得更加困难。问题9、油价大幅下跌往往会导致通货紧缩,正因为如此,才会引发偿债困难。问题10、石油价格的下跌似乎反映了一个根本的问题:世界已经达到债务扩张的极限
热门评论12楼 你的车烧的是原油啊?108楼36楼3楼94楼&img src=&/v2-876f5f8d35c9dd415a70adf_b.jpg& data-rawwidth=&600& data-rawheight=&387& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&/v2-876f5f8d35c9dd415a70adf_r.jpg&&&p&眼下最热门的技术,绝对是人工智能。&/p&&p&人工智能的底层模型是&u&&a href=&/?target=http%3A///item/%25E4%25BA%25BA%25E5%25B7%25A5%25E7%25A5%259E%25E7%25BB%258F%25E7%25BD%%25BB%259C& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&&神经网络&&i class=&icon-external&&&/i&&/a&&/u&(neural network)。许多复杂的应用(比如模式识别、自动控制)和高级模型(比如深度学习)都基于它。学习人工智能,一定是从它开始。&/p&&p&&br&&/p&&img src=&/v2-876f5f8d35c9dd415a70adf_b.jpg& data-rawwidth=&600& data-rawheight=&387& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&/v2-876f5f8d35c9dd415a70adf_r.jpg&&&p&&br&&/p&&p&&br&&/p&&p&什么是神经网络呢?网上似乎&u&&a href=&/question/& class=&internal&&缺乏&/a&&/u&通俗的解释。&/p&&p&前两天,我读到 Michael Nielsen 的开源教材&u&&a href=&/?target=http%3A///index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&《神经网络与深度学习》&i class=&icon-external&&&/i&&/a&&/u&(Neural Networks and Deep Learning),意外发现里面的解释非常好懂。下面,我就按照这本书,介绍什么是神经网络。&/p&&p&这里我要感谢&u&&a href=&/?target=http%3A///%3Futm_source%3Druanyfarticle%26utm_medium%3Dreferral%26utm_campaign%3DFEND05& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&优达学城&i class=&icon-external&&&/i&&/a&&/u&的赞助,本文&u&&a href=&/?target=http%3A///blog/2017/07/neural-network.html%23support& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&结尾&i class=&icon-external&&&/i&&/a&&/u&有他们的&u&&a href=&/?target=http%3A///course/front-end-web-developer-nanodegree--nd001-cn-advanced/%3Futm_source%3Druanyfarticle%26utm_medium%3Dreferral%26utm_campaign%3DFEND05& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&《前端开发(进阶)》&i class=&icon-external&&&/i&&/a&&/u&课程的消息,欢迎关注。&/p&&h2&一、感知器&/h2&&p&历史上,科学家一直希望模拟人的大脑,造出可以思考的机器。人为什么能够思考?科学家发现,原因在于人体的神经网络。&/p&&p&&br&&/p&&p&&br&&/p&&img src=&/v2-7eb104edf1dedd715adca4_b.png& data-rawwidth=&600& data-rawheight=&227& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&/v2-7eb104edf1dedd715adca4_r.png&&&p&&br&&/p&&ol&&li&外部刺激通过神经末梢,转化为电信号,转导到神经细胞(又叫神经元)。&/li&&li&无数神经元构成神经中枢。&/li&&li&神经中枢综合各种信号,做出判断。&/li&&li&人体根据神经中枢的指令,对外部刺激做出反应。&/li&&/ol&&p&&br&&/p&&p&既然思考的基础是神经元,如果能够&人造神经元&(artificial neuron),就能组成人工神经网络,模拟思考。上个世纪六十年代,提出了最早的&人造神经元&模型,叫做&u&&a href=&/?target=https%3A//zh.wikipedia.org/wiki/%25E6%E7%259F%25A5%25E5%& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&&感知器&&i class=&icon-external&&&/i&&/a&&/u&(perceptron),直到今天还在用。&/p&&p&&br&&/p&&p&&br&&/p&&img src=&/v2-1bad8bb0eb738ed45ee082c3c169bff5_b.png& data-rawwidth=&280& data-rawheight=&138& class=&content_image& width=&280&&&p&&br&&/p&&p&上图的圆圈就代表一个感知器。它接受多个输入(x1,x2,x3...),产生一个输出(output),好比神经末梢感受各种外部环境的变化,最后产生电信号。&/p&&p&为了简化模型,我们约定每种输入只有两种可能:1 或 0。如果所有输入都是1,表示各种条件都成立,输出就是1;如果所有输入都是0,表示条件都不成立,输出就是0。&/p&&h2&二、感知器的例子&/h2&&p&下面来看一个例子。城里正在举办一年一度的游戏动漫展览,小明拿不定主意,周末要不要去参观。&/p&&p&&br&&/p&&p&&br&&/p&&img src=&/v2-483bc9fac15fe14f55a41c_b.jpg& data-rawwidth=&650& data-rawheight=&434& class=&origin_image zh-lightbox-thumb& width=&650& data-original=&/v2-483bc9fac15fe14f55a41c_r.jpg&&&p&&br&&/p&&p&他决定考虑三个因素。&/p&&ol&&li&天气:周末是否晴天?&/li&&li&同伴:能否找到人一起去?&/li&&li&价格:门票是否可承受?&/li&&/ol&&p&&br&&/p&&p&这就构成一个感知器。上面三个因素就是外部输入,最后的决定就是感知器的输出。如果三个因素都是 Yes(使用1表示),输出就是1(去参观);如果都是 No(使用0表示),输出就是0(不去参观)。&/p&&h2&三、权重和阈值&/h2&&p&看到这里,你肯定会问:如果某些因素成立,另一些因素不成立,输出是什么?比如,周末是好天气,门票也不贵,但是小明找不到同伴,他还要不要去参观呢?&/p&&p&现实中,各种因素很少具有同等重要性:某些因素是决定性因素,另一些因素是次要因素。因此,可以给这些因素指定权重(weight),代表它们不同的重要性。&/p&&ul&&li&天气:权重为8&/li&&li&同伴:权重为4&/li&&li&价格:权重为4&/li&&/ul&&p&&br&&/p&&p&上面的权重表示,天气是决定性因素,同伴和价格都是次要因素。&/p&&p&如果三个因素都为1,它们乘以权重的总和就是 8 + 4 + 4 = 16。如果天气和价格因素为1,同伴因素为0,总和就变为 8 + 0 + 4 = 12。&/p&&p&这时,还需要指定一个阈值(threshold)。如果总和大于阈值,感知器输出1,否则输出0。假定阈值为8,那么 12 & 8,小明决定去参观。阈值的高低代表了意愿的强烈,阈值越低就表示越想去,越高就越不想去。&/p&&p&上面的决策过程,使用数学表达如下。&/p&&p&&br&&/p&&p&&br&&/p&&img src=&/v2-9ba4d401d6abf_b.png& data-rawwidth=&686& data-rawheight=&171& class=&origin_image zh-lightbox-thumb& width=&686& data-original=&/v2-9ba4d401d6abf_r.png&&&p&&br&&/p&&p&上面公式中,x表示各种外部因素,w表示对应的权重。&/p&&h2&四、决策模型&/h2&&p&单个的感知器构成了一个简单的决策模型,已经可以拿来用了。真实世界中,实际的决策模型则要复杂得多,是由多个感知器组成的多层网络。&/p&&p&&br&&/p&&p&&br&&/p&&img src=&/v2-c1adb4fa8d9ad822d4f39d_b.png& data-rawwidth=&540& data-rawheight=&211& class=&origin_image zh-lightbox-thumb& width=&540& data-original=&/v2-c1adb4fa8d9ad822d4f39d_r.png&&&p&&br&&/p&&p&上图中,底层感知器接收外部输入,做出判断以后,再发出信号,作为上层感知器的输入,直至得到最后的结果。(注意:感知器的输出依然只有一个,但是可以发送给多个目标。)&/p&&p&这张图里,信号都是单向的,即下层感知器的输出总是上层感知器的输入。现实中,有可能发生循环传递,即 A 传给 B,B 传给 C,C 又传给 A,这称为&u&&a href=&/?target=https%3A//zh.wikipedia.org/wiki/%25E9%E5%25BD%%25A5%259E%25E7%25BB%258F%25E7%25BD%%25BB%259C& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&&递归神经网络&&i class=&icon-external&&&/i&&/a&&/u&(recurrent neural network),本文不涉及。&/p&&p&&br&&/p&&p&&br&&/p&&img src=&/v2-dfd64dd366d2db7e5d7b762_b.png& data-rawwidth=&456& data-rawheight=&472& class=&origin_image zh-lightbox-thumb& width=&456& data-original=&/v2-dfd64dd366d2db7e5d7b762_r.png&&&p&&br&&/p&&h2&五、矢量化&/h2&&p&为了方便后面的讨论,需要对上面的模型进行一些数学处理。&/p&&ul&&li&外部因素 x1、x2、x3 写成矢量 &x1, x2, x3&,简写为 x&/li&&li&权重 w1、w2、w3 也写成矢量 (w1, w2, w3),简写为 w&/li&&li&定义运算 w?x = ∑ wx,即 w 和 x 的点运算,等于因素与权重的乘积之和&/li&&li&定义 b 等于负的阈值 b = -threshold&/li&&/ul&&p&&br&&/p&&p&感知器模型就变成了下面这样。&/p&&p&&br&&/p&&p&&br&&/p&&img src=&/v2-1d56cfd8ddd69b2b26765d_b.png& data-rawwidth=&545& data-rawheight=&117& class=&origin_image zh-lightbox-thumb& width=&545& data-original=&/v2-1d56cfd8ddd69b2b26765d_r.png&&&p&&br&&/p&&h2&六、神经网络的运作过程&/h2&&p&一个神经网络的搭建,需要满足三个条件。&/p&&ul&&li&输入和输出&/li&&li&权重(w)和阈值(b)&/li&&li&多层感知器的结构&/li&&/ul&&p&&br&&/p&&p&也就是说,需要事先画出上面出现的那张图。&/p&&p&&br&&/p&&p&&br&&/p&&img src=&/v2-c1adb4fa8d9ad822d4f39d_b.png& data-rawwidth=&540& data-rawheight=&211& class=&origin_image zh-lightbox-thumb& width=&540& data-original=&/v2-c1adb4fa8d9ad822d4f39d_r.png&&&p&&br&&/p&&p&其中,最困难的部分就是确定权重(w)和阈值(b)。目前为止,这两个值都是主观给出的,但现实中很难估计它们的值,必需有一种方法,可以找出答案。&/p&&p&这种方法就是试错法。其他参数都不变,w(或b)的微小变动,记作Δw(或Δb),然后观察输出有什么变化。不断重复这个过程,直至得到对应最精确输出的那组w和b,就是我们要的值。这个过程称为模型的训练。&/p&&p&&br&&/p&&p&&br&&/p&&img src=&/v2-68dc5dce7a68ee807f2d_b.png& data-rawwidth=&779& data-rawheight=&405& class=&origin_image zh-lightbox-thumb& width=&779& data-original=&/v2-68dc5dce7a68ee807f2d_r.png&&&p&&br&&/p&&p&因此,神经网络的运作过程如下。&/p&&ol&&li&确定输入和输出&/li&&li&找到一种或多种算法,可以从输入得到输出&/li&&li&找到一组已知答案的数据集,用来训练模型,估算w和b&/li&&li&一旦新的数据产生,输入模型,就可以得到结果,同时对w和b进行校正&/li&&/ol&&p&&br&&/p&&p&可以看到,整个过程需要海量计算。所以,神经网络直到最近这几年才有实用价值,而且一般的 CPU 还不行,要使用专门为机器学习定制的 GPU 来计算。&/p&&p&&br&&/p&&p&&br&&/p&&img src=&/v2-06ea3f761abecd790e91795_b.jpg& data-rawwidth=&700& data-rawheight=&399& class=&origin_image zh-lightbox-thumb& width=&700& data-original=&/v2-06ea3f761abecd790e91795_r.jpg&&&p&&br&&/p&&h2&七、神经网络的例子&/h2&&p&下面通过车牌自动识别的例子,来解释神经网络。&/p&&p&&br&&/p&&p&&br&&/p&&img src=&/v2-fddc8b3bb8e50_b.jpg& data-rawwidth=&480& data-rawheight=&338& class=&origin_image zh-lightbox-thumb& width=&480& data-original=&/v2-fddc8b3bb8e50_r.jpg&&&p&&br&&/p&&p&所谓&车牌自动识别&,就是高速公路的探头拍下车牌照片,计算机识别出照片里的数字。&/p&&p&&br&&/p&&p&&br&&/p&&img src=&/v2-4deafd596fbed_b.jpg& data-rawwidth=&800& data-rawheight=&523& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&/v2-4deafd596fbed_r.jpg&&&p&&br&&/p&&p&这个例子里面,车牌照片就是输入,车牌号码就是输出,照片的清晰度可以设置权重(w)。然后,找到一种或多种&u&&a href=&/?target=http%3A///blog/2011/07/principle_of_similar_image_search.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&图像比对算法&i class=&icon-external&&&/i&&/a&&/u&,作为感知器。算法的得到结果是一个概率,比如75%的概率可以确定是数字1。这就需要设置一个阈值(b)(比如85%的可信度),低于这个门槛结果就无效。&/p&&p&一组已经识别好的车牌照片,作为训练集数据,输入模型。不断调整各种参数,直至找到正确率最高的参数组合。以后拿到新照片,就可以直接给出结果了。&/p&&p&&br&&/p&&p&&br&&/p&&img src=&/v2-b54ed7a9c9f13f0b9a785a_b.png& data-rawwidth=&468& data-rawheight=&308& class=&origin_image zh-lightbox-thumb& width=&468& data-original=&/v2-b54ed7a9c9f13f0b9a785a_r.png&&&p&&br&&/p&&h2&八、输出的连续性&/h2&&p&上面的模型有一个问题没有解决,按照假设,输出只有两种结果:0和1。但是,模型要求w或b的微小变化,会引发输出的变化。如果只输出0和1,未免也太不敏感了,无法保证训练的正确性,因此必须将&输出&改造成一个连续性函数。&/p&&p&这就需要进行一点简单的数学改造。&/p&&p&首先,将感知器的计算结果wx + b记为z。&/p&&blockquote&z = wx + b
&/blockquote&&p&然后,计算下面的式子,将结果记为σ(z)。&/p&&blockquote&σ(z) = 1 / (1 + e^(-z)) &/blockquote&&p&这是因为如果z趋向正无穷z → +∞(表示感知器强烈匹配),那么σ(z) → 1;如果z趋向负无穷z → -∞(表示感知器强烈不匹配),那么σ(z) → 0。也就是说,只要使用σ(z)当作输出结果,那么输出就会变成一个连续性函数。&/p&&p&原来的输出曲线是下面这样。&/p&&p&&br&&/p&&p&&br&&/p&&img src=&/v2-b36d2dd2b087c95dc7a848bd571db6ce_b.png& data-rawwidth=&595& data-rawheight=&405& class=&origin_image zh-lightbox-thumb& width=&595& data-original=&/v2-b36d2dd2b087c95dc7a848bd571db6ce_r.png&&&p&&br&&/p&&p&现在变成了这样。&/p&&p&&br&&/p&&p&&br&&/p&&img src=&/v2-2e23dd0ae0a5320c86cba11_b.png& data-rawwidth=&644& data-rawheight=&384& class=&origin_image zh-lightbox-thumb& width=&644& data-original=&/v2-2e23dd0ae0a5320c86cba11_r.png&&&p&&br&&/p&&p&实际上,还可以证明Δσ满足下面的公式。&/p&&p&&br&&/p&&p&&br&&/p&&img src=&/v2-027bbae7cda44251d23ceb8e_b.png& data-rawwidth=&641& data-rawheight=&138& class=&origin_image zh-lightbox-thumb& width=&641& data-original=&/v2-027bbae7cda44251d23ceb8e_r.png&&&p&&br&&/p&&p&即Δσ和Δw和Δb之间是线性关系,变化率是偏导数。这就有利于精确推算出w和b的值了。&/p&&p&&br&&/p&&blockquote&作者:阮一峰
原文出处:&a href=&/?target=http%3A///blog/2017/07/neural-network.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&神经网络入门 - 阮一峰的网络日志&i class=&icon-external&&&/i&&/a&&/blockquote&
眼下最热门的技术,绝对是人工智能。人工智能的底层模型是(neural network)。许多复杂的应用(比如模式识别、自动控制)和高级模型(比如深度学习)都基于它。学习人工智能,一定是从它开始。 什么是神经网络呢?网上似乎…
&p&这个问题的回答其实蛮反直觉的:这两个方法,实际上反而节省开发时间,而且越长期的项目,效果越明显。&/p&&p&这个反直觉的实践会带来一个很吊诡的副作用: 你很难让一个从来没有真正实践过自动化测试的人去理解自动化测试的好处^^.&/p&&p&这个有点像如果你领了一个有时间限制的任务:全团队需要越过一条大河,到河对岸去。最符合直觉的方法是赶紧带着团队开始往对岸游。 而且老板看到你的团队每天都离对岸近一点也很开心。但是最快方式,其实是先造一艘船。而没有见过船的团队,是非常难理解这一点的。&/p&&p&所以,我对完全没有实践过这两种方法的人其实一般的说法都是, 先不要下结论,找个小的项目先推行下试试 ^^.&/p&&p&好吧, 解释具体的原因之前,我来普及一下人生三大幻觉:&/p&&p&- 我的代码没有问题。&/p&&p&- 这个算法跑起来了。&/p&&p&- 马上就可以发布了。&/p&&img src=&/v2-365daca24413c9afbc73751_b.jpg& data-rawwidth=&161& data-rawheight=&200& class=&content_image& width=&161&&&p&事实上一个软件工程师成长过程基本上就是不断出现幻觉然后被打脸的过程。 这种幻觉不仅软件工程师会出,离开技术岗位一段时间的技术管理人员也会出现。&/p&&p&一般来说你写着写着代码突然有人在会上说, 我们打算明天就发出去, 你就知道,肯定有人又出现幻觉了。&/p&&p&这些幻觉出现的根本原因其实所有软件工程的书都讲过,最著名的书包括 《人月神话》 和 《&a href=&///?target=https%3A///Psychology-Computer-Programming-Silver-Anniversary/dp//ref%3Dcm_cr_arp_d_product_top%3Fie%3DUTF8& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&The Psychology of Computer Programming&i class=&icon-external&&&/i&&/a&》, 这些 70, 80 年代写的书里面的案例,每天都可以在很多公司里面找到。可惜据我观察,读这些书对人的影响其实比我想得小的多,大多数老司机还是真的被现实按在地上狠狠的摩擦以后,才能学会怎么做人。&/p&&p&我们可以从两个方面来说为什么能节省时间:&/p&&p&- 对于一个工程师来说,特别是比较初级的工程师,出现这种幻觉的原因是他没有意识到, 把一个工程的实现代码写完,平均来说仅仅是完成了 60%[1] 左右的进度,如果最开始写代码的时候没有考虑到代码的可测试性, 这个比例可能会更少。&/p&&p&除非你的代码极其简单 (比如你写个 hello world), 你的代码里面一定是有 bug 的, 只是 bug 的多少而已。那么问题就来了, 你怎么把这些 bug 找出来呢?&/p&&p&是的, 估计你已经想到了, 代码审查和自动化测试。&/p&&p&综合来看,&b&这两种做法是最高效的找出大部分潜在 bug 的方式&/b&。 除开这两种方法以外,另外一个常用的就是人工黑盒测试。人工黑盒测试虽然不可少,但是相比自动化测试来说,少了可以快速复用的特点。自动化测试属于高回报的投资, 一旦写好了以后, 就算改一行代码都可以重新跑一次,而人工测试相对来说远没这么灵活。&/p&&p&&b&于是如果你的开发高效 + 最高效的去除 bug 的手段(代码审查 + 自动化测试)。 从整个工程角度来说, 是最省时间的。&/b& &/p&&p&而如果你不去做代码审查 + 自动化测试, 代码写完黑盒测测就上线,不管覆盖率, 也不管 boundery , 看起来好像上线更快,整个工程其实并没有完成,你只是把问题推到了未来,于是我们就会看到这种情形:&/p&&img src=&/v2-952d720c00a037dec7e28c9604f36dae_b.png& data-rawwidth=&400& data-rawheight=&300& class=&content_image& width=&400&&&p&如果把最后折腾来折腾去的把代码搞稳定时间算进去,花的时间远比这个长。&/p&&p&当然很多公司可能搞着搞着,项目就取消了。&/p&&p&- 对于技术管理来说,code review + 和自动化测试是一个非常重要进度管理的工具。 因为你知道,如果一个工程师告诉你, 我马上就写完了。 这句话的置信度基本上为 50%,
就是说五五开,可能他确实做完了,也可能他已经做飞了。&/p&&p&那我们换种问法: 你的 code review 和自动化测试写完了吗? 如果答案是 “是”, 那么基本上这个项目进度不会有什么问题了。&/p&&p&&b&而对项目进度的正确信息,恰恰是合理分配资源最重要的依据。&/b&&/p&&img src=&/v2-c89d20a650f2b3600a7eb_b.jpg& data-rawwidth=&207& data-rawheight=&208& class=&content_image& width=&207&&&p&&b&记住: 一个测试过的软件,才是一个完成的软件。&/b&&/p&&p&&b&最后,自动化测试并非一个黑和白的问题,事实上 一个覆盖不完全的自动化测试,效果也远远好于完全没有自动化测试, 呃, 这句这么有哲理的话其实是 Martin Fowler 大神说的 - &/b&&a href=&///?target=https%3A//en.wikipedia.org/wiki/Martin_Fowler& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Martin Fowler - Wikipedia&i class=&icon-external&&&/i&&/a&&b&。&/b&&/p&&p&&b&所以老是说没有时间的同学,这个不是借口哦 ^^&/b&&/p&&p&PS: 问题里面提到的 owner 休假一类的问题实际上工程管理的执行细节,这个和整个原理不相悖, 这块需要工程管理者花很大力气去慢慢梳理的, 比如之前在 Opera 每个 Module 除了 owner 还需要一个 co owner,
同时还要避免把代码审查变成代码审判一类的问题 . 工程管理并不是立一个 FLAG 就完了对不对 ^^&/p&&p&[1] 这个因项目而已,我自己的经验平均在 60% 左右。&/p&
这个问题的回答其实蛮反直觉的:这两个方法,实际上反而节省开发时间,而且越长期的项目,效果越明显。这个反直觉的实践会带来一个很吊诡的副作用: 你很难让一个从来没有真正实践过自动化测试的人去理解自动化测试的好处^^.这个有点像如果你领了一个有时间…
&img src=&/v2-eb0e32eca7a9cedc45b769d73614da9a_b.jpg& data-rawwidth=&900& data-rawheight=&500& class=&origin_image zh-lightbox-thumb& width=&900& data-original=&/v2-eb0e32eca7a9cedc45b769d73614da9a_r.jpg&&&p&Shell 脚本编程 是你在 Linux 下学习或练习编程的最简单的方式。尤其对 &a href=&/?target=https%3A///using-shell-script-to-automate-linux-system-maintenance-tasks/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&系统管理员要处理着自动化任务&i class=&icon-external&&&/i&&/a&,且要开发新的简单的实用程序或工具等(这里只是仅举几例)更是必备技能。&/p&&p&本文中,我们将分享 10 个写出高效可靠的 bash 脚本的实用技巧,它们包括:&/p&&h3&1、 脚本中多写注释&/h3&&p&这是不仅可应用于 shell 脚本程序中,也可用在其他所有类型的编程中的一种推荐做法。在脚本中作注释能帮你或别人翻阅你的脚本时了解脚本的不同部分所做的工作。&/p&&p&对于刚入门的人来说,注释用 # 号来定义。&/p&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&# TecMint 是浏览各类 Linux 文章的最佳站点
&/code&&/pre&&/div&&h3&2、 当运行失败时使脚本退出&/h3&&p&有时即使某些命令运行失败,bash 可能继续去执行脚本,这样就影响到脚本的其余部分(会最终导致逻辑错误)。用下面的行的方式在遇到命令失败时来退出脚本执行:&/p&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&# 如果命令运行失败让脚本退出执行
set -o errexit
&/code&&/pre&&/div&&h3&3、 当 Bash 用未声明变量时使脚本退出&/h3&&p&Bash 也可能会使用能导致起逻辑错误的未声明的变量。因此用下面行的方式去通知 bash 当它尝试去用一个未声明变量时就退出脚本执行:&/p&&div class=&highlight&&&pre&&code class=&language-bash&&&span&&/span&&span class=&c1&&# 若有用未设置的变量即让脚本退出执行&/span&
&span class=&nb&&set&/span& -o nounset
&span class=&c1&&# 或&/span&
&span class=&nb&&set&/span& -u
&/code&&/pre&&/div&&h3&4、 使用双引号来引用变量&/h3&&p&当引用时(使用一个变量的值)用双引号有助于防止由于空格导致单词分割开和由于识别和扩展了通配符而导致的不必要匹配。&/p&&p&看看下面的例子:&/p&&div class=&highlight&&&pre&&code class=&language-bash&&&span&&/span&&span class=&ch&&#!/bin/bash&/span&
&span class=&c1&&# 若命令失败让脚本退出&/span&
&span class=&nb&&set&/span& -o errexit
&span class=&c1&&# 若未设置的变量被使用让脚本退出&/span&
&span class=&nb&&set&/span& -o nounset
&span class=&nb&&echo&/span& &span class=&s2&&&Names without double quotes&&/span&
&span class=&nb&&echo&/span&
&span class=&nv&&names&/span&&span class=&o&&=&/span&&span class=&s2&&&Tecmint FOSSMint Linusay&&/span&
&span class=&k&&for&/span& name in &span class=&nv&&$names&/span&&span class=&p&&;&/span& &span class=&k&&do&/span&
&span class=&nb&&echo&/span& &span class=&s2&&&&/span&&span class=&nv&&$name&/span&&span class=&s2&&&&/span&
&span class=&k&&done&/span&
&span class=&nb&&echo&/span&
&span class=&nb&&echo&/span& &span class=&s2&&&Names with double quotes&&/span&
&span class=&nb&&echo&/span&
&span class=&k&&for&/span& name in &span class=&s2&&&&/span&&span class=&nv&&$names&/span&&span class=&s2&&&&/span&&span class=&p&&;&/span& &span class=&k&&do&/span&
&span class=&nb&&echo&/span& &span class=&s2&&&&/span&&span class=&nv&&$name&/span&&span class=&s2&&&&/span&
&span class=&k&&done&/span&
&span class=&nb&&exit&/span& 0
&/code&&/pre&&/div&&p&保存文件并退出,接着如下运行一下:&/p&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&$ ./names.sh
&/code&&/pre&&/div&&p&&em&&u&在脚本中用双引号&/u&&/em&&/p&&h3&5、 在脚本中使用函数&/h3&&p&除了非常小的脚本(只有几行代码),总是记得用函数来使代码模块化且使得脚本更可读和可重用。&/p&&p&写函数的语法如下所示:&/p&&div class=&highlight&&&pre&&code class=&language-bash&&&span&&/span&&span class=&k&&function&/span& check_root&span class=&o&&(){&/span&
command1&span class=&p&&;&/span&
command2&span class=&p&&;&/span&
&span class=&o&&}&/span&
&span class=&c1&&# 或&/span&
check_root&span class=&o&&(){&/span&
command1&span class=&p&&;&/span&
command2&span class=&p&&;&/span&
&span class=&o&&}&/span&
&/code&&/pre&&/div&&p&写成单行代码时,每个命令后要用终止符号:&/p&&div class=&highlight&&&pre&&code class=&language-bash&&&span&&/span&check_root&span class=&o&&(){&/span& command1&span class=&p&&;&/span& command2&span class=&p&&;&/span& &span class=&o&&}&/span&
&/code&&/pre&&/div&&h3&6、 字符串比较时用 = 而不是 ==&/h3&&p&注意 == 是 = 的同义词,因此仅用个单 = 来做字符串比较,例如:&/p&&div class=&highlight&&&pre&&code class=&language-bash&&&span&&/span&&span class=&nv&&value1&/span&&span class=&o&&=&/span&””
&span class=&nv&&value2&/span&&span class=&o&&=&/span&””
&span class=&k&&if&/span& &span class=&o&&[&/span& &span class=&s2&&&&/span&&span class=&nv&&$value1&/span&&span class=&s2&&&&/span& &span class=&o&&=&/span& &span class=&s2&&&&/span&&span class=&nv&&$value2&/span&&span class=&s2&&&&/span& &span class=&o&&]&/span&
&/code&&/pre&&/div&&h3&7、 用 $(command) 而不是老旧的 `command` 来做代换&/h3&&p&&a href=&/?target=https%3A///assign-linux-command-output-to-variable/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&命令代换&i class=&icon-external&&&/i&&/a& 是用这个命令的输出结果取代命令本身。用 $(command) 而不是引号 `command` 来做命令代换。&/p&&p&这种做法也是 &a href=&/?target=https%3A///shellcheck-shell-script-code-analyzer-for-linux/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&shellcheck tool&i class=&icon-external&&&/i&&/a& (可针对 shell 脚本显示警告和建议)所建议的。例如:&/p&&div class=&highlight&&&pre&&code class=&language-bash&&&span&&/span&&span class=&nv&&user&/span&&span class=&o&&=&/span&&span class=&sb&&`&/span&&span class=&nb&&echo&/span& “&span class=&nv&&$UID&/span&”&span class=&sb&&`&/span&
&span class=&nv&&user&/span&&span class=&o&&=&/span&&span class=&k&&$(&/span&&span class=&nb&&echo&/span& “&span class=&nv&&$UID&/span&”&span class=&k&&)&/span&
&/code&&/pre&&/div&&h3&8、 用 readonly 来声明静态变量&/h3&&p&静态变量不会改变;它的值一旦在脚本中定义后不能被修改:&/p&&div class=&highlight&&&pre&&code class=&language-bash&&&span&&/span&&span class=&nb&&readonly&/span& &span class=&nv&&passwd_file&/span&&span class=&o&&=&/span&”/etc/passwd”
&span class=&nb&&readonly&/span& &span class=&nv&&group_file&/span&&span class=&o&&=&/span&”/etc/group”
&/code&&/pre&&/div&&h3&9、 环境变量用大写字母命名,而自定义变量用小写&/h3&&p&所有的 bash 环境变量用大写字母去命名,因此用小写字母来命名你的自定义变量以避免变量名冲突:&/p&&div class=&highlight&&&pre&&code class=&language-bash&&&span&&/span&&span class=&c1&&# 定义自定义变量用小写,而环境变量用大写&/span&
&span class=&nv&&nikto_file&/span&&span class=&o&&=&/span&”&span class=&nv&&$HOME&/span&/Downloads/nikto-master/program/nikto.pl”
perl “&span class=&nv&&$nikto_file&/span&” -h
“&span class=&nv&&$1&/span&”
&/code&&/pre&&/div&&h3&10、 总是对长脚本进行调试&/h3&&p&如果你在写有数千行代码的 bash 脚本,排错可能变成噩梦。为了在脚本执行前易于修正一些错误,要进行一些调试。通过阅读下面给出的指南来掌握此技巧:&/p&&a href=&/?target=https%3A///article-8028-1.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&如何在 Linux 中启用 Shell 脚本调试模式&i class=&icon-external&&&/i&&/a&&a href=&/?target=https%3A///article-8045-1.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&如何在 Shell 脚本中执行语法检查调试模式&i class=&icon-external&&&/i&&/a&&a href=&/?target=https%3A///article-8120-1.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&如何在 Shell 脚本中跟踪调试命令的执行&i class=&icon-external&&&/i&&/a&&p&本文到这就结束了,你是否有一些其他更好的 bash 脚本编程经验想要分享?若是的话,在下面评论框分享出来吧。&/p&&p&作者简介:&/p&&p&Aaron Kili 是一个 Linux 和 F.O.S.S(Free and Open-Source Software,自由及开放源代码软件)爱好者,未来的 Linux 系统管理员、Web 开发人员,目前是 TecMint 的内容创作者,他喜欢用电脑工作,且崇尚分享知识。&/p&&p&via: &a href=&/?target=https%3A///useful-tips-for-writing-bash-scripts-in-linux/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&10 Useful Tips for Writing Effective Bash Scripts in Linux&i class=&icon-external&&&/i&&/a&&/p&&p&作者:&a href=&/?target=https%3A///author/aaronkili/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Aaron Kili&i class=&icon-external&&&/i&&/a& 译者:&a href=&/?target=https%3A///ch-cn& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&ch-cn&i class=&icon-external&&&/i&&/a& 校对:&a href=&/?target=https%3A///wxy& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&wxy&i class=&icon-external&&&/i&&/a&&/p&&p&本文由 &a href=&/?target=https%3A///LCTT/TranslateProject& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&LCTT&i class=&icon-external&&&/i&&/a& 原创编译,&a href=&/?target=https%3A///article-8618-1.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Linux中国&i class=&icon-external&&&/i&&/a& 荣誉推出&/p&
Shell 脚本编程 是你在 Linux 下学习或练习编程的最简单的方式。尤其对 ,且要开发新的简单的实用程序或工具等(这里只是仅举几例)更是必备技能。本文中,我们将分享 10 个写出高效可靠的 bash 脚本的实用技巧,它们包括:1、…
&p&看到目前大部分回答的作者应该都是CS 领域的,我自己是 生物本科,认知神经科学研究生在读,课余时间比较喜欢编程和机器学习,正在自学,了解的稍微多一些。我试着从我的角度来说下我看到的 深度学习和 神经科学的联系。&/p&&p&深度学习和神经科学这两个学科现在都很大,我的经历尚浅,如果大家发现哪里说得不太对,欢迎提出指正,谢谢!&/p&&br&&p&那我们就自底往上说。&/p&&h2&&b&神经元&/b&&/h2&&p&在深度学习领域,神经元是最底层的单元,如果用感知机的模型, wx + b, 加上一个激活函数构成了全部,输入和输出都是数字,研究的比较清楚,别的不说,在参数已知的情况下,有了输入可以计算输出,有了输出可以计算输入。&/p&&p&但在神经科学领域,神经元并不是最底层的单位,举例来说,有人在做神经元膜离子通道相关的工作。一个神经元的输入,可以分为三部分,从其他神经元来的电信号输入,化学信号输入,还有编码在细胞内的信号(兴奋,抑制类型,这里可以类比为 激活函数?),输出也是三个,电输出,化学输出,改变自身状态(LTP 长时程增强, LTD长时程抑制)。我们是否足够了解神经元? 我个人十分怀疑这一点,前几天还看到一个关于神经元的进展,大意是神经元不仅能对单一信号产生反应。。还能对一定一定间隔的信号产生反应。。 神经元的底层编码能力其实更强。。。我们神经科学发展了这么久,可能真的连神经元都没真正的搞清楚。&/p&&p&在这另外说一句。 深度神经网络里面,大部分节点都是等同的,但是在人类神经网络里面,并不是这样,不同的脑区,甚至脑区内部,神经元的形态都可以有很大的差异,如V1内部的六层就是基于神经元形态的区分。从这个角度,人类神经系统要更复杂一些。我个人并不否认每一种神经元可以用不同初始化参数的 节点来代替,但是目前来说,复杂度还是要比深度神经网络要高。&/p&&br&&h2&&b&信号编码方式&/b&&/h2&&p&再说编码方式,神经科学里面的 神经元是会产生0-1 的动作电位,通过动作电位的频率来编码相应的信号(脑子里面的大部分是这样,外周会有其他形式的),而人工神经网络?大部分我们听到的,看到的应该都不是这种方式编码的,但是 脉冲神经网络 这个东西确实也有,(今天去ASSC 开会的时候看到了一个很有趣的工作,在评论区简单说了下,有兴趣可以去看。)&/p&&br&&h2&&b&神经网络的结构&/b&&/h2&&p&目前的深度神经网络主要是三种结构, DNN(全连接的),CNN(卷积), RNN(循环)。还有一些很奇怪的, 比如说。。。Attention 的?不好意思,文章还没看,不敢乱说。。。&/p&&p&放点图:&/p&&p&DNN:&/p&&br&&img src=&/v2-4bed1e8da4ef_b.png& data-rawwidth=&500& data-rawheight=&274& class=&origin_image zh-lightbox-thumb& width=&500& data-original=&/v2-4bed1e8da4ef_r.png&&&p&来自 : &a href=&///?target=http%3A//ufldl.stanford.edu/wiki/index.php/Neural_Networks& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Neural Networks - Ufldl&i class=&icon-external&&&/i&&/a&&/p&&p&CNN:&/p&&br&&img src=&/v2-7f5227bbd2d1f30dffabbd601dce0570_b.png& data-rawwidth=&1416& data-rawheight=&504& class=&origin_image zh-lightbox-thumb& width=&1416& data-original=&/v2-7f5227bbd2d1f30dffabbd601dce0570_r.png&&&p&出处: AlexNet&/p&&br&&p&RNN:&/p&&br&&img src=&/v2-e473cbba149ec233f85a5_b.png& data-rawwidth=&2706& data-rawheight=&711& class=&origin_image zh-lightbox-thumb& width=&2706& data-original=&/v2-e473cbba149ec233f85a5_r.png&&&br&&p&出处: &a href=&///?target=http%3A//colah.github.io/posts/2015-08-Understanding-LSTMs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Understanding LSTM Networks&i class=&icon-external&&&/i&&/a&&/p&&br&&p&神经科学里面的网络结构,此处以V1 为例:&/p&&br&&img src=&/v2-5de5aaecfec93eb31f8c764_b.png& data-rawwidth=&741& data-rawheight=&435& class=&origin_image zh-lightbox-thumb& width=&741& data-original=&/v2-5de5aaecfec93eb31f8c764_r.png&&&p&来源: &a href=&///?target=https%3A///books/visual-cortex-current-status-and-perspectives/adaptation-and-neuronal-network-in-visual-cortex& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Adaptation and Neuronal Network in Visual Cortex&i class=&icon-external&&&/i&&/a&&/p&&br&&img src=&/v2-8c24ff6e561faa104b68c1b_b.png& data-rawwidth=&1477& data-rawheight=&1464& class=&origin_image zh-lightbox-thumb& width=&1477& data-original=&/v2-8c24ff6e561faa104b68c1b_r.png&&&p&感谢 &a class=&member_mention& href=&///people/0c3c958f0ebaa34f3e5f& data-hash=&0c3c958f0ebaa34f3e5f& data-hovercard=&p$b$0c3c958f0ebaa34f3e5f&&@滕建超&/a&
提供新的图片,比我之前那个强多了,这张图表达分层结构表达的更好一些。&/p&&p&来源: &a href=&///?target=http%3A//journal.frontiersin.org/article/10.3389/fnana./full& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Neocortical layer 6, a review&i class=&icon-external&&&/i&&/a&&/p&&p&和大家想的不同,视觉区分了V1,V2,V3,V4,V5(MT),上面还有FFA, 和一些掌管更高级功能的脑区。在这里面每一个小的视皮层里面,并不是纯由神经元互相连接构成的,仍然存在不同的层级结构。这里去google 找了一张图,不用管具体的文章,主要说明的是V1 的精细结构和连接关系。V1 的主要功能是 识别点和不同角度的线段(Hubel 和W 在上世纪50年代在猫上的工作),但是其实不止如此,V1 还对颜色有一定的感知。&/p&&p&如果在这个层面作比较,我自己的理解是, 人类神经网络是 DNN+ CNN + RNN 再加上脉冲作为编码方式。层内更像DNN, 层间和CNN 很类似,在时间上展开就是RNN。 &/p&&br&&p&好,我们继续。 &/p&&h2&&b&训练方式:&/b&&/h2&&p&深度神经网络的训练方式主要是 反向传播,从输出层一直反向传播到第一层,每一层不断修正出现的错误。但是大脑里面并没有类似反向传播机制,最简单的解释,神经元信号传递具有方向性,并没机会把信号返回上一层。举个例子,我要拿起手边的杯子,视觉发现向右偏移了一点,那我会自然而然的移动整个手臂向左一点,然后试着去重新抓住杯子。好像没人是让手指,手,最后是手臂朝杯子移动,甚至多次才能最后成功吧。在此引用下一篇文章里面的图。&/p&&br&&img src=&/v2-37fcf5b5eecd_b.png& data-rawwidth=&685& data-rawheight=&379& class=&origin_image zh-lightbox-thumb& width=&685& data-original=&/v2-37fcf5b5eecd_r.png&&&br&&p&来源文章: &a href=&///?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Towards Biologically Plausible Error Signal Transmission in Neural Networks&i class=&icon-external&&&/i&&/a&&/p&&p&我们的大脑,更像最后 DFA 的原理。出错了,把误差送到一个更靠近输入的地方,然后重新训练。&/p&&br&&h2&&b&记忆和遗忘:&/b&&/h2&&p&提到记忆的话,这里主要说的是LSTM, LSTM 的记忆储存在每个节点的权重里面,同时有专门的 遗忘门 控制遗忘速率。这些都是以数字的形式存储的。在神经系统里面,记忆的存储是由一些脑区的突触的形成和消失来存储的。其实&b&他们有一个比较共通的地方在于,他们在训练过程中都是渐变的。&/b&得益于反向传播机制和 神经系统的生物性,他们在训练过程中和在不断的学习过程中都只能以一个相对慢的速度发生改变,&b&从学习速率角度来讲,他们是比较相似的&/b&。&/p&&p&然后我们来说遗忘。遗忘在LSTM 里面是通过门来控制的,在神经系统里面,我觉得是和STDP相关的,它的基础是 Hebb 假说, Fire Together, Wire Together, 同步放电的神经元倾向于建立一个更强的连接。STDP 拓展了这一点,考虑了两神经元放电的先后顺序带来的影响。&/p&&br&&img src=&/v2-48c576e85fcf106a0c436d6ff389c45c_b.png& data-rawwidth=&1282& data-rawheight=&1149& class=&origin_image zh-lightbox-thumb& width=&1282& data-original=&/v2-48c576e85fcf106a0c436d6ff389c45c_r.png&&&p&来源:&a href=&///?target=http%3A//annualreviews.org/doi/abs/10.1146/annurev.neuro.24.1.139& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Synaptic Modification by Correlated Activity: Hebb&#x27;s Postulate Revisited&i class=&icon-external&&&/i&&/a&&/p&&p&简单来说,如果突触前神经元放电先于突触后神经元(神经元信号传导具有方向性,从突触前到突触后),这个突触会进入一个LTP 长时程增强状态,会对来自突触前的信号有更强的反应。反之,如果突触前神经元放电后于突触后,则会进入一个长时程抑制的状态(说明他俩并没有接收到相同来源的信号,信号不相关),一段时间的反应更弱。&/p&&p&深度神经网络里面门的权重也是 反向传播训练出来的,也有渐变的这个性质,当对于快速变化的刺激,有一定的滞后。从这个角度来说,&b&人类神经系统要更灵活一些,可以在很短的时间内完成状态的切换。&/b&&/p&&br&&p&觉得想说的大概就是这些,因为我自己做的研究是 视觉注意,更多在人身上做,所以对于中间的环路级别的研究,并不是特别的熟悉。再往上,谈到人类大脑皮层的工作,个人觉得做的十分的有限,对于大部分脑区,我们并不知道他们是怎么工作的,只是能把不同的脑区和不同的功能对应起来(还不一定准。。)。在这个角度上谈他们的异同是不太负责的。。。容易被打脸。&/p&&p&接下来我会试着邀请几个朋友来说下环路这个级别的事情。。然后会找其他同行帮我挑错和补充。。。。。很多东西都是按照记忆写的。。一些东西不一定准确。。&/p&&br&&h2&&b&最后说下自己的观点吧&/b&&/h2&&p&正如在提纲里面提到的。 对的答案往往类似,而错误的答案各有不同。地球上这么多高等的生命都有类似的底层网络结构,而其中的一种还发展出了这么伟大的文明,神经网络这个结构,至少已经被我们自己证明是一种有效的形式。但是是不是智能这个形式的全局最优解?我个人持怀疑态度。&/p&&p&神经网络是一个有效的结构,所以大家用这个结构做出一些很好的结果,我一定都不吃惊。但是如果谈模拟的话,就是尽力要往这个方向靠。这点上,我个人并不是十分看好这种方式。我们向蝙蝠学习用声音定位,发展的声呐无论是距离还是效果都远超蝙蝠。我们能超过蝙蝠的原因,第一是我们的技术有拓展性,底层原理共通的情况下,解决工程和机械问题,我们可以不那么轻松但是也做到了探测几千米,甚至几十公里。第二个原因就是我们需要而蝙蝠不需要,他们天天在山洞里面睡觉。。哪用得着探测几十公里的距离,探到了也吃不着。。&/p&&p&其实人类大脑也很类似,大脑是一个进化的产物。是由环境不断塑造而成的,人为什么没进化出计算机一样的计算能力,因为不需要。但是其实反过来也有一定的共通的地方,大脑里面的一些东西,我们也不需要,我们千百年来忍饥挨饿进化出的 对于脂肪摄入的需求,在儿童时期对于糖类摄取的需求。这么说的话,我们对于大脑,同样去其糟粕,取其精华不是更好吗?&/p&&p&我上面提到的是一个理想的情况,我们对大脑已经了解的比较透彻的,知道该去掉哪,留下哪。。但是现在。。。可能还要走一段模拟的路子。。。。&/p&&p&大概就是这个观点。 总结一下,就是, &b&深度神经网络和大脑皮层有共通的地方,但是并不能算是模拟。只是大家都找到了解题的同一个思路而已。&/b&&/p&&br&&br&&h2&&b&感谢阅读,希望大家多提宝贵意见。&/b&&/h2&&br&&p&&b&如果您都读到这了,欢迎去看看评论区,有很多不错的讨论。&/b&&/p&&br&&p&Harold_Yue 第一版草稿写于
0:10&/p&&p&Harold_Yue 第二版草稿写于
11:10 加入了 &b&训练方式, 记忆和遗忘,以及自己的观点&/b& 三部分。&/p&&p&Harold_Yue 于
12:54 加了张图,另外表示评论区很赞。&/p&&br&&p&拓展阅读以及参考文献:&/p&&p&&a href=&/VisNeuro& class=&internal&&从科研到脑科学 - 知乎专栏&/a& &/p&&a href=&///?target=http%3A//colah.github.io/posts/2015-08-Understanding-LSTMs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Understanding LSTM Networks&i class=&icon-external&&&/i&&/a&&p&AlexNet: &a href=&///?target=http%3A//papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&ImageNet Classification with Deep Convolutional Neural Networks&i class=&icon-external&&&/i&&/a&&/p&&a href=&///?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Towards Biologically Plausible Error Signal Transmission in Neural Networks&i class=&icon-external&&&/i&&/a&&p&STDP: &a href=&///?target=http%3A//annualreviews.org/doi/abs/10.1146/annurev.neuro.24.1.139& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Synaptic Modification by Correlated Activity: Hebb&#x27;s Postulate Revisited&i class=&icon-external&&&/i&&/a&&/p&&p&神经元对一定间隔信号反应: &a href=&///?target=http%3A//www.pnas.org/content/114/23/6127.short& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Learned response sequences in cerebellar Purkinje cells&i class=&icon-external&&&/i&&/a&&/p&&p&新智元相关报道 : &a href=&///?target=https%3A//mp./s%3F__biz%3DMzI3MTA0MTk1MA%3D%3D%26mid%3D%26idx%3D2%26sn%3D191d0cc3e6c27cbd16a193dchksm%3Dfb1ced4c39bb5b40ad67fb6b0e1adaf0b85a%26mpshare%3D1%26scene%3D1%26srcid%3D0620BHoDBbFvfLdI2QEft6lh%26key%3D5e973e5d3cae484a0b1adec1aabe91b2e6e72bafc43af5d763ec8cebaa8ad8fc28b201aab2dba269c6d124fb818%26ascene%3D0%26uin%3DMjg0MTM4ODYyMg%253D%253D%26devicetype%3DiMac%2BMacBookPro9%252C2%2BOSX%2BOSX%2B10.10.5%2Bbuild%%26version%3Dpass_ticket%3DeK%252FoLJtiWlg1%252FXW33H2p%252BoWA6lXKpCgNSZCdN0K9xFmF1ehi0g0Eza9xgYvLL0CT& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&【新智元专访】神经元本身也能编程,神经网络学习能力远超预期&i class=&icon-external&&&/i&&/a&&/p&
看到目前大部分回答的作者应该都是CS 领域的,我自己是 生物本科,认知神经科学研究生在读,课余时间比较喜欢编程和机器学习,正在自学,了解的稍微多一些。我试着从我的角度来说下我看到的 深度学习和 神经科学的联系。深度学习和神经科学这两个学科现在都…
&p&woc破1k了!人生最高赞!&/p&&p&小透明写个答案不知不觉变成最高票了。。。瑟瑟发抖&/p&&br&&p&写一个可能因为太冷了,所以没什么人提,但是真的特别惊艳的一个“飞行器”。&/p&&p&就是这玩意。&/p&&br&&img src=&/v2-bd0fa7aa0bb_b.png& data-rawwidth=&600& data-rawheight=&259& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&/v2-bd0fa7aa0bb_r.png&&&br&&img src=&/v2-06ba0e7ebdea434a9bc49_b.png& data-rawwidth=&268& data-rawheight=&188& class=&content_image& width=&268&&&img src=&/v2-0bbe6524dcff8c01fa5e59_b.png& data-rawwidth=&200& data-rawheight=&162& class=&content_image& width=&200&&&br&&p&这个看起来像一块铁饼或者小飞碟一样的玩意儿是美苏冷战时期,50-60年代的众多美国黑科技结晶之一,因为其独特的造型,美国人给她起名叫Pye Wacket。。。π嘛,反正就是个饼。(不过其实这个代号的真正出处是1958年的一部美国喜剧电影《夺情记》中的女巫角色的爱猫的名字,而这只喵星人用这个名字的出处则要追溯到英格兰猎杀女巫时期中一个“巫婆”供出的其小跟班的名字。。。。总之这个飞行器的代号本身就将自己和黑魔法联系在了一起)&/p&&br&&p&那么这个Pye Wacket的设计用途是什么呢?实际上比这个造型本身还要惊艳。惊艳的多。是一种新型的隐身无人机?是某种飞行器的验证模型?还是yankees居然傻到把别隆采圆盘的都市传说当真做出来的新玩具?甚至罗斯威尔事件的战利品?naive,全都不是。这个代号叫Pye Wacket的玩意的定位,是一种&b&导弹。&/b&&/p&&p&&b&空对空导弹。&/b&&/p&&p&&b&空射空对空防御型导弹。&/b&&/p&&br&&br&&img src=&/v2-a658fd536efcfc6b09a41929_b.png& data-rawwidth=&300& data-rawheight=&327& class=&content_image& width=&300&&&p&是的这话我自己说出来都不信。&/p&&br&&p&但是你没有看错,我也不是在转什么票圈的中或输/日呼胜的地摊,这个Pye Wacket是真实存在的一个研究项目,其用途定位就是如此绝无仅有。美国官方对其项目的正式称呼就是“ WS-740A &b&Lenticular Defense Missile&/b& (LDM)”,意为&b&“透镜状防御型导弹”,&/b&虽然只有透镜状能一眼看出来。在反导系统问世之前,这可能是世界上第一种承担防御用途的导弹,可能是目前唯一一种空射的完全防御用途导弹,大概一定是全世界唯一一种透镜状的“导弹”。&/p&&br&&p&吹了一大段牛,那么这个pye到底是被设计来干什么的呢?&/p&&p&废话少说,我决定直接翻一段维基来说明。&/p&&br&&p&Pye Wacket LDM项目, 是通用动力旗下的康维尔部门为响应美国空军于1958年提出的“防御反导系统( Defensive Anti-Missile System)”构想而进行设计研究的一个导弹项目。这个DAMS的提出目的是为了给当时同样正在研发的,许多答主已经提到过的XB-70 女武神超音速轰炸机,&b&提供一种拦截敌方发射的地对空和空对空导弹的手段&/b&。&/p&&img src=&/v2-cdb3ca63b99a3bcb3f8f5_b.png& data-rawwidth=&1348& data-rawheight=&1092& class=&origin_image zh-lightbox-thumb& width=&1348& data-original=&/v2-cdb3ca63b99a3bcb3f8f5_r.png&&&p&Pye Wacket要服务的就是这位大姑娘。&/p&&br&&p&尽管我们的XB-70姐姐飞的比当时的任何苏联记者都快,爬的比任何苏联飞机都高,但是聪明的给宇航员用铅笔的苏联人在1957年劳动节阅兵上展出的S-75(北约当时称SA-2)防空导弹严重动摇了XB-70的这一优势。(之后的1959年,大陆用SA-2击落了台湾的RB-57D高空侦察机,1960年苏联人自己又用SA-2击落了美国的U-2高空侦察机,成为世界防空史上第一批防空导弹的战果,证实了美国人的担忧。)而编故事不嫌脑洞大的美国人中间甚至盛传过这个SA-2可以安装核弹头的传言(实际上SA-5开始才这么丧病)。因此,认为保险措施怎么都不嫌多的美国人便提出了DAMS的构想,意图给已经很难被击落的XB-70女士再上一层保险,以应对这一新的威胁。&/p&&br&&img src=&/v2-2e380dae786e0a7f887b_b.png& data-rawwidth=&443& data-rawheight=&1024& class=&origin_image zh-lightbox-thumb& width=&443& data-original=&/v2-2e380dae786e0a7f887b_r.png&&&p&鲍尔斯(空军上尉退役,事件当时属CIA编制),SA-2的第一位美国战果。&/p&&p&&a href=&///?target=http%3A///upload/2017-03/air-defence/450.jpg& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&/upload/2017-&/span&&span class=&invisible&&03/air-defence/450.jpg&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&
被中国地空导弹部队击落之后曝尸示众的蛟龙夫人们。&/p&&br&&p&而USAF提出的DAMS设计指标本身。。。。也很令人膛目结舌,肝。。。甘拜下风。USAF提出的构想中,DAMS的设计指标包括:&/p&&p&-能够承受60g-250g的加速度&/p&&p&-能够在任何方向发射出去(毕竟导弹经常是从下面或者翘臀后面来的)&/p&&p&-能够在空中接受末端引导,向任何方向转向&/p&&p&&b&-能够以7马赫,7马赫,7马赫的速度拦截来袭的目标&/b&&/p&&br&&img src=&/v2-0bbe6524dcff8c01fa5e59_b.png& data-rawwidth=&200& data-rawheight=&162& class=&content_image& width=&200&&&p&这是人能制造出来的东西吗?&/p&&p&。。。。然而似乎是的。&/p&&br&&p&还别说,美国人于是真的根据风洞试验等等的研究设计出了这个回答的主角Pye Wacket。在风洞试验中,这样的双凸透镜状弹体结构被认为拥有极佳的攻击角度(碟形的杀伤面),理论上其重量分布也十分理想,两件美好的设计重合在一起,就会给Pye Wacket带来更高的性能提升,得到的自然是像梦境一般美好的机动性。同时,碟形的设计也使得LDM能够确实从XB-70上360°全向发射。据称其速度确实能达到6.5马赫以上,单是之后康维尔的地面试验中就确实达到了5马赫的速度,可以说是非常魔法了。&/p&&img src=&/v2-dd696a1cd18c00a226c1bafce5cdad8b_b.png& data-rawwidth=&450& data-rawheight=&199& class=&origin_image zh-lightbox-thumb& width=&450& data-original=&/v2-dd696a1cd18c00a226c1bafce5cdad8b_r.png&&&p&Pye Wacket的设fu计yuan图&/p&&br&&img src=&/v2-69a92fee23fbb70aca6b07f_b.png& data-rawwidth=&300& data-rawheight=&216& class=&content_image& width=&300&&&p&正在进行实验的Pye Wacket全比例模型(感谢&a data-hash=&a53fd02d0& href=&///people/a53fd02d0& class=&member_mention& data-hovercard=&p$b$a53fd02d0&&@苏翻译&/a& 指正,军盲丢人x1)&/p&&br&&p&进行先期研究之后,康维尔部门在1959年收到了美国军方的研究合同,这个项目也从此时开始得到了Pye Wacket的代号和Project 3811的项目编号。关于为什么代号被决定为夺情记中的Pye Wacket, 有一种说法是项目办公室里有一位看过夺情记的秘书,还有一种说法是在夺情记的主演中就有一位知晓计划的战略空军司令部上校(1959年7月升准将),他在杀青之后决定把电影里的梗带到三次元来。&/p&&img src=&/v2-075e6aacfb_b.png& data-rawwidth=&268& data-rawheight=&335& class=&content_image& width=&268&&&p&(感谢评论区&a class=&member_mention& href=&///people/84f8f2e918551dcc6fce93339e1aaf03& data-hash=&84f8f2e918551dcc6fce93339e1aaf03& data-hovercard=&p$b$84f8f2e918551dcc6fce93339e1aaf03&&@Tian Ouyang&/a& 指正,就是著名的吉米·史都华 James Stewart,奥斯卡最佳男主角奖,终身成就奖,金球奖。。。哇我当时居然没意识到这哥们来头多大。。。果然是对美国老电影见识太少了,真鸡儿丢人x2)&/p&&br&&br&&img src=&/v2-b45c69f04decf31813afbc40_b.png& data-rawwidth=&600& data-rawheight=&413& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&/v2-b45c69f04decf31813afbc40_r.png&&&p&康维尔接锅之后的Pye Wacket研发团队,中间这位就是项目负责人,初步设计工程师厄尔.尤金.霍尼韦尔(Earl Eugene Honeywell) ,时年26岁,可以说是个天才。&/p&&br&&p&经过一系列试验后,导弹确定使用6具火箭推进器进行姿态控制和推进,导弹的外壳使用镁合金。推进剂采用M58A2固体燃料。 战斗部介于火箭发动机舱壁前与制导包之间,采用20磅破片战斗部。 &/p&&p&反应控制系统被集中装在导弹后端的主喷口两侧。反应控制由四个分布于导弹后表面的固定喷口喷气来实现。俯仰、偏航和滚转控制则通过调节注入四个固定燃烧室的推进剂来完成。&/p&&p&整个反作用力系统,包括推进剂、加压充电、伺服机、推力室等等组件在内都被集成起来安装在两侧。用于推进剂注入控制的电信号从电子部分的自动驾驶仪经导弹边沿中布置的电线传输到后段。&/p&&p&为了给导弹助推段的俯仰与偏航提供额外控制力,主发动机旋转喷口可以上下左右偏转10度。最终设计可能需要在同一平面内提供矢量控制,推进剂注入可以替代喷口旋转,打开覆盖导弹喷口排放区域顶部与底部的外壳,令喷口可以伸到导弹外面,由此便可在俯仰平面内偏转。 &/p&&br&&p&。。。。。好了我自己都要看不懂了。&/p&&br&&p&值得一提的是,在康维尔投入研究之前对这种导弹进行初期研究论证的美国军方曾有一个大胆的想法——给这种导弹装上核战斗部,然而由于弹体空间太小,最后还是使用了普通破片战斗部。&/p&&br&&img src=&/v2-1cedb8e99eeddd0ed5d0039_b.png& data-rawwidth=&458& data-rawheight=&600& class=&origin_image zh-lightbox-thumb& width=&458& data-original=&/v2-1cedb8e99eeddd0ed5d0039_r.png&&&p&年,预想进行阶段2测试的“可行性测试载具”(FTV)&/p&&br&&img src=&/v2-3f631ceace20feef19b085b21d667b08_b.png& data-rawwidth=&419& data-rawheight=&600& class=&content_image& width=&419&&&br&&img src=&/v2-4a2f45b59ce11eaaa7cb2_b.png& data-rawwidth=&530& data-rawheight=&240& class=&origin_image zh-lightbox-thumb& width=&530& data-original=&/v2-4a2f45b59ce11eaaa7cb2_r.png&&&br&&p&康维尔做出的Pye Wacket设计图&/p&&p&无论如何,从年,美国军方和康维尔对这种Pye Wacket进行了一系列的实验论证,在1960年,项目已经完成了预想的3个阶段中的2个阶段,已经开始着手进行第3阶段的研究,就是在之前的火箭推动试验的基础上再测试12个FTV的性能。然而此时的康维尔研究小组却发现自己没有顺应历史的进程。&/p&&br&&p&首先是1960年的U-2被击落事件引起了美国对战略打击载具思路的转变,美国人认为洲际弹道导弹将取代战略超音速轰炸机成为未来美国主要的核运载载具(然而超音速轰炸机才是男人的浪漫啊摔!);而到了1961年,臭名昭著的麦克纳玛拉先生成为了美国的新国防部长,此公其他不会,倒是非常懂得西方干会计和银行行长那一套。他在任期间做了一点微小的贡献:发起了越南战争,打输了越南战争,以及取消了绝大多数创新的防务研究项目,仅剩的几个幸存者的成本也被极度压缩——当然是为了省钱。XB-70便是其中的一个牺牲品。而既然XB-70已经入土,为XB-70而研发的主动防御导弹自然也就没有存在的必要了。于是Pye Wacket项目也随即被取消。&/p&&br&&p&但是这种惊世骇俗的飞行器的故事仍然没有结束。在1958年6月,美国军方曾经提出过另一个叫做“圣徒反卫星系统”的项目设想,其中有一个叫做蓝圣徒的项目,是基于无人的圣徒I提出的有人反卫星载具构想 蓝圣徒被视作波音X-20动力飞翔载人滑翔项目的一个竞争对手,而所有这些都被严加保密,直到现在都不清楚蓝圣徒项目是否进行过竞争性招标,或者康维尔是否为此提交过方案。看起来最后似乎是马丁飞机公司赢得了项目,因为它与20世纪60年代公开测试的SV-5、X-23和X-24升力体等项目有关,而项目的另一参与者是麦克唐纳飞机公司,该公司的相关研究后来成为了1965年的鱼胶侦察机项目——不过整个圣徒计划最后也给麦克纳玛拉取消了。&/p&&img src=&/v2-87d4fbcbefccf054e9df3b0_b.png& data-rawwidth=&480& data-rawheight=&426& class=&origin_image zh-lightbox-thumb& width=&480& data-original=&/v2-87d4fbcbefccf054e9df3b0_r.png&&&p&当时中标的马丁公司机型&/p&&p&然而在1963年10月于圣迭戈举行的第八届弹道导弹与空间技术研讨会上 ,霍尼韦尔,之前提到的那位Pye Wacket的天才负责人在圣徒项目取消2年后在会上公开了康维尔当时参与蓝圣徒项目时提出的构想——反正整个项目也被取消了,谁爱保密就去保密好了。根据霍尼韦尔的说法,康维尔在Pye Wacket进行第2阶段的同时参与了蓝圣徒的研究, 在设计上,载人载具(MV)采用泰坦III型运载火箭。MV的工作方式是,在距目标50英里的安全距离外,发射小型“监察官”/击杀器(I/K)设备,设备将与目标交会,随距离的接近对目标进行检测,之后如有必要,在接到摧毁指令后,将击毁目标。这个方案允许MV和I/K设备具有非常大的速度改变量(MV可达每秒7000英尺,I/K可达每秒9600英尺),因此项目具备快速响应能力。而康维尔参与该项目时的设计图则长成这样&/p&&br&&img src=&/v2-50e8d5e69ae22_b.png& data-rawwidth=&600& data-rawheight=&439& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&/v2-50e8d5e69ae22_r.png&&&p&是不是很熟悉?&/p&&p&如果把这个东西的载人舱单独拿出来就更熟悉了&/p&&br&&img src=&/v2-8fec6bbc056b_b.png& data-rawwidth=&462& data-rawheight=&600& class=&origin_image zh-lightbox-thumb& width=&462& data-original=&/v2-8fec6bbc056b_r.png&&&p&(后排哥们:有句话我一定要讲)&/p&&p&在康维尔的设想中, 是一种&b&基于Pye Wacket项目技术的透镜状再入载具&/b&,可容纳一个三人乘员组,它也是整个系统中唯一可以返回地球的模块。在发射台中断发射情况下(发射初始阶段),或者着陆出现问题时,驾驶舱部分可以在亚音速下从指令模块分离。也就是说,Pye Wacket 这个项目的技术实际上也被康维尔用在同期的,脑洞更大的载人反卫星飞船计划上。可惜这整个计划都遭受了和Pye Wacket同样的命运。&/p&&br&&img src=&/v2-c0e7b0c317f624f599b082bae1aa8654_b.png& data-rawwidth=&600& data-rawheight=&363& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&/v2-c0e7b0c317f624f599b082bae1aa8654_r.png&&&p&载人载具的设计构想&/p&&p&在1963年10月露面之后,同时负责Pye Wacket和蓝圣徒的霍尼韦尔的官方履历完全消失了。与其有关的绝大多数报告至今都没有解密,甚至不知道这些报告是否还仍然存在。人们只能从公共记录中发现其于1998年10月去世,葬于塔科马国家公墓。Pye Wacket的主动空对空防御导弹构想再也没有实现,转而被雷达规避、隐身、诱饵弹、反辐射导弹和电子对抗措施等手段取代。当然话也不能说太绝,目前美国空军开始论证的空中激光系统或许也就是Pye Wacket所代表的空中主动防御构思的另一种方向。而至于反卫星载人飞行器之类的超前构想则彻底销声匿迹了。&/p&&p&在2006年,美国杂志《航空周刊和空间技术》登载了一篇令人震惊的文章,声称美国在20世纪90年代开发了一种两级入轨可重复使用的载人飞行器,名为黑星,能够实施许多轨道/亚轨道任务。项目发展始于挑战者号航天飞机于1986年解体之后,直到2005年此种飞行器才退役。文章称,黑星系统的第一级据说是改装自一架北美XB-70瓦尔基里超音速轰炸机(被称为SR-3),还有一种小型大后掠翼、双人机组升力体太空飞机(被称为XOV),这个XOV被装在SR-3的机身下面。整个系统由一个“美国航宇公司财团”为一个“未透露名称的美国政府部门”开发,极为机密,即便是许多美国最高军方和民用航天项目的规划者们都不清楚它的存在。黑星设计被用于执行的任务可能包括反卫星、快速响应小型卫星发射、使用小型常规战斗部等等。若这篇文章为真,这就变成了XB-70和Pye Wacket这对姐妹项目在20年之后的又一次重生,然而没人能证明其真伪,Pye Wacket项目本身可能仍然作为一种别样的技术储备静静躺在军方的数据库之中,等待被人想起的那一天。&/p&&br&&p&哦,对了,在最后,笔者本人是怎么知道Pye Wacket这个东西的呢?&/p&&p&笔者第一次听闻这个逆天的小圆盘是出自法国游戏工作室Eugen System于2015年推出的即时战略游戏《侵略行为》(现在多人模式已成鬼服)。在游戏中,XB-70轰炸机是游戏反派势力,作为恐怖主义背后的共济会式黑手而存在的“财团”所使用的空军单位之一。而游戏中XB-70的一个可升级项目就是这个Pye Wacket。&/p&&img src=&/v2-e40b600cb6fee_b.png& data-rawwidth=&600& data-rawheight=&400& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&/v2-e40b600cb6fee_r.png&&&br&&img src=&/v2-5d3d996fb5f1ef7d1e5f0a9ed93d94d8_b.png& data-rawwidth=&160& data-rawheight=&84& class=&content_image& width=&160&&&p&游戏中的XB-70小姐姐和Pye Wacket的升级图标&/p&&br&&p&当时的感觉就是:还有这种操作?.jpg&/p&&br&&img src=&/v2-212dd382db_b.png& data-rawwidth=&623& data-rawheight=&163& class=&origin_image zh-lightbox-thumb& width=&623& data-original=&/v2-212dd382db_r.png&&&br&&img src=&/v2-5b195a4efd2a41c6db280_b.png& data-rawwidth=&235& data-rawheight=&236& class=&content_image& width=&235&&&p&真·已经没有这种操作了.jpg&/p&&p&这里也要感谢侵略行为吧的一个吧友,是这位哥们先进行了这个Pye Wacket的初期考据并贴在他的武器原型分析贴里,才给了我灵感写这篇答案。我自己一向很喜欢这种出现蓝图武器的科幻军事题材游戏,在这些游戏里出现的冷战武器就好像一个个特别有趣的复活节彩蛋一样(比如说财团的单位就是冷战下马项目的大杂烩,居然全都造得起,也许这就是大佬吧.jpg)。而Eugen System素来就有进行这种设定的优良传统,比如侵略行为的精神前作《战争行为》系列之中的各种单位也和冷战-90年代的各种黑科技息息相关。只可惜这种玩起来如同在看科幻武器386图鉴一样的RTS游戏越来越少了。&/p&&br&&p&本文编纂过程中大量参考了豆瓣的这篇文章(&a href=&///?target=https%3A///note//& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&大饼导弹皮瓦克与载人反卫星武器&i class=&icon-external&&&/i&&/a&),在补充维基上短的可怜的资料同时也纠正了我很多一开始的认知,如果原作者也混知乎的话我希望能对他表示感谢。关于Pye Wacket的更多发展历程和技术细节请拜读此篇。(根据这篇文章写到后来感觉越写越严肃了hhhh,本来只想写到XB-70下马就结束的没想到越写越多)&/p&
woc破1k了!人生最高赞!小透明写个答案不知不觉变成最高票了。。。瑟瑟发抖 写一个可能因为太冷了,所以没什么人提,但是真的特别惊艳的一个“飞行器”。就是这玩意。 这个看起来像一块铁饼或者小飞碟一样的玩意儿是美苏冷战时期,50-60年代的众多美国黑科技…
&p&谢邀。&/p&&p&针对这个问题,我们邀请了微软亚洲研究院&b&机器学习组&/b&的首席研究员刘铁岩博士,为大家带来他眼中人工智能现状,包括面临的挑战与机遇。&/p&&img src=&/v2-00f0b01fc2d12fd12b1b0_b.png& data-rawwidth=&2048& data-rawheight=&1236& class=&origin_image zh-lightbox-thumb& width=&2048& data-original=&/v2-00f0b01fc2d12fd12b1b0_r.png&&&p&微软亚洲研究院机器学习组包含机器学习的各个主要方向,在理论、算法、应用等不同层面推动机器学习领域的学术前沿。该组目前的研究重点为深度学习、增强学习、分布式机器学习和图学习。其研究课题还包括排序学习、计算广告和云定价。在过去的十几年间,该组在顶级国际会议和期刊上发表了大量高质量论文,帮助微软的产品部门解决了很多复杂问题,并向开源社区贡献了&a href=&///?target=https%3A//mp./s%3F__biz%3DMzAwMTA3MzM4Nw%3D%3D%26mid%3Didx%3D1%26sn%3Def1ba087cf42db81f0a0de%23rd& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&微软分布式机器学习工具包(DMTK)&i class=&icon-external&&&/i&&/a&和&a href=&///?target=http%3A//mp./s%3F__biz%3DMzAwMTA3MzM4Nw%3D%3D%26mid%3D%26idx%3D1%26sn%3Dee9d6ee5fabf1%26chksm%3D82c0a988b5bd86ca2b7ce2cb7c895dadd6173c7bdfffbb14f%23rd& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&微软图引擎(Graph Engine)&i class=&icon-external&&&/i&&/a&,LightLDA、&a href=&///?target=http%3A//mp./s%3F__biz%3DMzAwMTA3MzM4Nw%3D%3D%26mid%3D%26idx%3D1%26sn%3D615217bcdb0b642ebadc96%26chksm%3D82c0d6adb5b75fbbd8c4eef92aabd297f7d2f1e4b0dd86a65a3d8be6%23rd& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&LightGBM等&i class=&icon-external&&&/i&&/a&,并受到广泛关注。该组正在招贤纳士,诚邀各路英雄好汉加盟,共同逐鹿AI天下。&a href=&///?target=https%3A///en-us/research/people/tyliu/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&联系我们。&i class=&icon-external&&&/i&&/a&&/p&&br&&p&——这里是正式回答的分割线——&/p&&p&要说人工智能发展到了什么程度,我们先来看看&b&人工智能的历史进程&/b&。&/p&&p&人工智能从1956年的达特茅斯会议开始,到现在61年的历史,发展过程中风风雨雨,可以看到几起几落,至少我们经历过两个所谓人工智能的冬天。&/p&&p&每一次人工智能的崛起都是因为某种先进的技术发明,而每一次人工智能遇到了它的瓶颈,也都是因为人们对于人工智能技术的期望太高,超出了它技术能达到的水准。所以政府、基金会等撤资,导致了研究人员没有足够的资金去从事研究。&/p&&p&那么今天我们处在一个什么阶段呢?有人说现在是人工智能的春天,有人说是夏天,还有人悲观一点,说是秋天,秋天的意思就是冬天马上就来了。作为人工智能的学者,我们该怎么看待这件事情,我们能做些什么?不管大家怎么预测,至少今天还是一个人工智能的黄金时代。&/p&&p&为什么这么讲呢?接下来先给大家展示一些最近人工智能取得的成果,确实是之前十几年我们完全想不到的。&/p&&p&&b&首先,我们讲人工智能在语音方面的突破&/b&,人工智能在语音识别,语音合成上面最近都取得了非常瞩目的结果。2016年10月份由微软美国研究院发布的一个语音识别的最新结果实现了错误率为5.9%的新突破,这是第一次用人工智能技术取得了跟人类似的语音识别的错误率。&/p&&p&&b&其次,在图像方面,人工智能也有很多长足的进步&/b&,比如图像识别的ImageNet比赛,用计算机去识别数据集中1000个类别的图像。在2015年,来自微软亚洲研究院的技术——ResNet,获得了2015年ImageNet的冠军,错误率是3.5%,而人的错误率大概是5.1%。所以可看出在特定领域、特定类别下,其实计算机在图像识别上的能力已经超过了人的水平。2016年我们微软亚洲研究院再接再励,在比图像识别更难的一个任务——物体分割上面取得了冠军。&/p&&p&除了语音和图像以外,其实&b&人工智能在自然语言上面也取得了很大的进展&/b&。左边这张图描述了各大公司都在不断地提高各自语音机器翻译的水准和技术,右边这张图展示的是去年12月微软发布了Microsoft Translator的一个新功能,它支持50多种语言,可以实现多个人多种语言的实时翻译,比如大家每个人可能来自不同的国家,只要拿着手机用这个APP我们就可以互相交流。你说一句话或者输入文字,对方听到/看到的就是他的母语。
&/p&&br&&img src=&/v2-106f73904bcb13248dea7f10dc378e0d_b.png& data-rawwidth=&1172& data-rawheight=&622& class=&origin_image zh-lightbox-thumb& width=&1172& data-original=&/v2-106f73904bcb13248dea7f10dc378e0d_r.png&&&p&前面说的这些语音、图像、语言,听起来还都是一些感知方面的东西。大家也知道,最近这段时间,人工智能在一些传统我们认为可能&b&很难由机器来取得成功的领域也获得了突破&/b&。比如左边这张图描述的是用人工智能技术来打游戏,大家可以看到这个敲砖块的游戏,在120分钟训练的时候,人工智能就找到了很有效的得分的途径。当我们继续去训练这个人工智能的机器人,到了240分钟以后,它又达到了那种所谓骨灰级玩家的水准,它发现了一些平时我们自己都玩不出来的窍门。 &/p&&br&&img src=&/v2-c585cc94d4a65eace5582_b.png& data-rawwidth=&1161& data-rawheight=&617& class=&origin_image zh-lightbox-thumb& width=&1161& data-original=&/v2-c585cc94d4a65eace5582_r.png&&&p&右边展示的是围棋比赛,大家都知道AlphaGo非常火,使用了深度增强学习的技术,经过了非常长的训练时间,引用了大量数据做self-play,最终是以压倒性的优势,4:1战胜了当时的世界冠军李世石。在去年的IJCAI上面,AlphaGo主要的开发人员做了一个keynote,说自战胜了李世石之后,AlphaGo并没有停下脚步,因为它是一个self-play的process,可以继续训练,只要给他足够的运算时间和样例,它就可以不断地去训练。所以也能理解为什么今年年初Master重新回到大家视野里,可以对围棋高手60连胜,因为这个差距太大了。&/p&&p&这些事情都是以前人们觉得人工智能不可以去企及的领域。但正是因为这些计算机科学家、人工智能科学家不断地去模仿人的决策过程,比如他们训练了value network,训练了policy network,就是怎么样根据现在的棋局去评估胜率,去决定下一步该走什么子,而不是走简单的穷举,用这些value network来对搜索树进行有效的剪枝,从而在有限的时间内完成一个非常有意义的探索,所有这些都是人工智能技术取得的本质的进展,让我们看到了一些不一样的结果。&/p&&p&说了人工智能的这些辉煌之后,其实&b&有很多问题是需要我们去冷静思考和回答&/b&的。&/p&&br&&img src=&/v2-35fb4e11af937a4fa875830_b.png& data-rawwidth=&1214& data-rawheight=&618& class=&origin_image zh-lightbox-thumb& width=&1214& data-original=&/v2-35fb4e11af937a4fa875830_r.png&&&p&我们的主题是开启智能计算的研究之门,我想从一个研究者的角度跟大家讨论一下我们还能做些什么,甚至是更有意义的是去做些什么。人工智能表面看起来很火,其实如果把这张魔术的台布展开,你就会发现它千疮百孔,各种各样非常基础的问题其实并没有解决,甚至有很多哲学的方法论的东西从我们的角度来看可能也不准确。&/p&&p&面对这样的情况,更有意义的事情可能是冷静下来,去从事一些能够改变人工智能现状以及未来的很本质的基础研究工作,甚至是去反思人工智能发展的路线图,看看我们是不是应该重启一条道路。这些事情才能使得我们不仅仅是随波逐流,不仅仅是变点现,骗点钱,而是在人工智能发展的真正道路上留下我们自己的足迹,过了几十年当大家回忆的时候,另外一个人站在台上讲述人工智能一百年的时候,他会在那个图上标着一个星星,那里面讲的是你的故事。&/p&&p&前面这些人工智能现象的背后是什么?说到技术层面,现在最火的两个词,一

我要回帖

更多关于 满天的星星像什么 的文章

 

随机推荐