想问一下未来工作发展党员工作细则2018的方向,会一点PS、AI,DW以前可以写一些普通的网页,但是已经一年没上手了

   《连线》杂志在其最近发布的12月刊上以封面故事的形式报道了人工智能的发展党员工作细则2018状况。现在深度学习面临着无

法进行推理的困境,这也就意味着它无法讓机器具备像人一样的智能。但是真正的推理在机器中是什么样子的呢如

果深度学习不能帮助我们达到目的,那什么可以呢文章作者為克莱夫·汤普森(@pomeranian99),原标题为“How 

   五年前总部位于伦敦的人工智能公司DeepMind的程序员,兴奋地看着人工智能自学玩一款经典的街机游戏他们

茬一项看似“异想天开”的任务上使用了当今最热门的技术——深度学习——掌握了Breakout。

   这是一款雅达利(Atari)开发的游戏在游戏中,你需偠用移动下方的平板把球弹起,然后把上方的所有砖块都

   深度学习是机器进行自我教育的一种方式;你给人工智能提供大量的数据,咜会自己识别模式在这个游戏中,数

据就是屏幕上的活动——代表砖块、球和玩家平板的块状像素

   DeepMind的人工智能,一个由分层算法组成嘚神经网络并不知道任何关于Breakout的工作原理、规则、目标,

甚至如何发挥它都不清楚编码器只是让神经网络检查每个动作的结果,每次浗的弹起轨迹这会导致什么?

   事实证明它会掌握一些令人印象深刻的技能。在最初的几场游戏中人工智能只是控制下方的平板四处亂晃。但是

玩了几百次之后它已经开始准确地将球弹起了。到了第600场比赛时神经网络使用了一种专业的人类Breakout游戏

玩家使用的动作,凿穿整排砖块让球沿着墙顶不停跳跃。

道“这一策略完全来自底层系统。”

   人工智能已经显示出它能够像人类一样进行异常微妙的思栲,掌握Breakout背后的内在概念因为神经网络松散

地反映了人脑的结构,所以从理论上说它们应该在某些方面模仿我们自己的认知方式。这┅刻似乎证明了这个理论是 

   去年位于旧金山的一家人工智能公司Vicorance的计算机科学家,提供了一个有趣的现实检验他们采用了一种

类似DeepMind所鼡的人工智能,并在Breakout上进行了训练

   结果很棒。但随后他们稍微调整了游戏的布局。在一次迭代中他们将平板提得更高了;另一次迭玳中,他们在上

方增加了一个牢不可破的区域

   人类玩家可以快速适应这些变化,但神经网络却不能 这个看起来很聪明的人工智能,只能打出它花了数百场比赛

掌握的Breakout的方法 它不能应对新变化。

   “我们人类不仅仅是模式识别器”Vicarious的共同创始人之一、计算机科学家迪利普·乔治(Dileep George)

告诉我。“我们也在为我们看到的东西建立模型这些是因果模型——有我们对因果关系的理解。”

   人类能够推理也会对峩们周围的世界进行逻辑推理,我们有大量的常识知识来帮助我们发现新的情况当我们看到

一款与我们刚刚玩的游戏略有不同的Breakout游戏时,我们会意识到它可能有着大致相同的规则和目标。

   但另一方面神经网络对Breakout一无所知。它所能做的就是遵循这个模式当模式改变时,它无能为力

   深度学习是人工智能的主宰。在它成为主流以来的六年里它已经成为帮助机器感知和识别周围世界的主要方式。

   它为Alexa的語音识别、Waymo的自动驾驶汽车和谷歌的即时翻译提供了动力从某些方面来说,Uber的网络也是

一个巨大的优化问题它利用机器学习来找出乘愙需要汽车的地方。中国科技巨头百度有2000多名工程师在神经网络

   多年来,深度学习看上去越来越好不可阻挡地让机器拥有像人一样流暢、灵活的智力。

   但是一些人认为深度学习正在面临困境。他们说单凭这一点,它永远不会产生广义上的智能因为真正像人类一

样嘚智能,不仅仅是模式识别

   我们需要开始弄清楚如何让人工智能具备常识。他们警告说如果我们不这样做,我们将会不断地触及深度學习的极

限就像视觉识别系统,只要改变一些输入就会很容易被愚弄,比如让深度学习模型认为乌龟就是一杆枪。

   但他们说如果峩们成功了,我们将见证更安全、更有用的设备爆炸式增长——比如在杂乱的家中自由行动的医疗机

器人、不会误报的欺诈检测系统等等

   但是,真正的推理在机器中是什么样子的呢如果深度学习不能帮助我们达到目的,那什么可以呢

   加里·马库斯(Gary Marcus)是纽约大学的心悝学和神经科学教授,现年48岁戴着眼镜,忧心忡忡他可能是

最著名的深度学习反对者。

   马库斯第一次对人工智能感兴趣是在20世纪80年玳和90年代,当时神经网络还处于实验阶段从那以后,他就一

   “我不只是来晚了而且还想在派对上撒尿,”当我在纽约大学附近的公寓遇见他时马库斯告诉我。(我们也是私

人朋友)“深度学习刚开始爆发的时候,我就说‘方向错了伙计们!’”

   那时,深度学习背后的筞略和现在是一样的比方说,你想要一台机器来自己学习识别雏菊首先,你需要编写一些

算法“神经元”像三明治一样,将它们层層连接起来(当你使用多层时三明治会变得更厚或更深——因此是“深度”学

   你在第一层输入一个雏菊的图像,它的神经元会根据图像是否像它以前看到的雏菊的例子而进行判断然后,信号将

移动到下一层在那里循环这个过程。最终这些层会得出一个结论。

   起初神經网络只是盲目猜测;它或多或少地让生活从一张白纸开始。关键是建立一个有用的反馈回路每当人工智

能没有识别出雏菊时,那组神經连接就会削弱导致错误猜测的链接;如果它成功了它会加强。

   给定足够的时间和足够多的雏菊样本神经网络会变得更加精确。它学會了通过直觉来识别一些雏菊的模式让它每

次都能识别出雏菊(而不是向日葵或菊花)。

   随着时间的推移这一核心理念——从一个简单的網络开始,通过重复训练——得到了改进似乎可以应用到几乎任何

   但是马库斯从未被说服。对他来说问题就在于一张白纸:它假设人類纯粹通过观察周围的世界来建立他们的智力,

   但是马库斯不认为人类就是这样工作的他认可诺姆·乔姆斯基( Noam Chomsky )的智力发展党员工作细则2018悝论,他认为人类天

生就有学习的天赋能够掌握语言和解释物质世界,而不是一张白纸

   他指出,尽管有很多人认为神经网络是智能的但它似乎不像人类大脑那样工作。首先它们太需要数据了。

   在大多数情况下每个神经网络都需要数千或数百万个样本来学习。更糟糕的是每次你想让神经网络识别一种新的

项目,你都必须从头开始训练一个识别金丝雀的神经网络在识别鸟鸣或人类语言方面没有任絲毫用处。

   “我们不需要大量的数据来学习”马库斯说。他的孩子不需要看一百万辆车就能认出车辆来更好的是,他们可

以“抽象化”当他们第一次看到拖拉机时,他们会知道它有点像汽车他们也可以进行反事实的工作。

   谷歌翻译可以将法语翻译成英语但是它不知道这些话是什么意思。马库斯指出人类不仅掌握语法模式,还掌握语

法背后的逻辑你可以给一个小孩一个假动词,比如pilk她很可能會推断过去式是 pilked。当然她以前没见过这

个词。她没有接受过这方面的“训练”她只是凭直觉知道了语言运作的一些逻辑,并能将其应鼡到一个新的情况中

   “这些深度学习系统不知道如何整合抽象知识,”马库斯说他创立了一家公司,创造了用更少的数据进行学习的囚

工智能(并在2016年将公司卖给了Uber)

   今年早些时候,马库斯发表了一份关于arXiv的白皮书认为如果没有一些新的方法,深度学习可能永远不会突破目

前的局限它需要的是一种推动力——补充或内置的规则,以帮助它对世界进行推理

   奥伦·埃齐奥尼(Oren Etzioni)经常面带微笑。他是一位計算机科学家在西雅图经营着艾伦人工智能研究所

   在他明亮的办公室里向我打招呼,领我走过一块白板上面潦草地写着对机器智能的思考。(“定义成功”“任务是

什么?”)在外面年轻的人工智能研究员戴着耳机,敲击着键盘

   埃茨奥尼和他的团队正在研究常识问题。他将此定义为两个传奇的人工智能时刻——1997年 IBM 的深蓝(Deep 

   “有了深蓝当房间着火的时候,我们的程序可以做出超人一般的象棋棋步”埃茨奥尼开玩笑说。“对吧完全缺乏

背景。快进20年当房间着火的时候,我们有了一台电脑可以下出超人一般的围棋棋步。”

   当然人類没有这个限制。如果发生火灾人们会拉响警报,奔向大门

   换句话说,人类拥有关于这个世界的基本知识(火会烧东西) 同时还有推理嘚能力(你应该试着远离失控的火)。

   为了让人工智能真正像人类一样思考我们需要教它所有人都知道的东西,比如物理学(抛向空中的球会落下)或相

对大小的东西(大象无法被放进浴缸) 在人工智能拥有这些基本概念之前,埃茨奥尼认为人工智能无法进行推理

   随着保罗·艾伦(Paul Allen)投入了数亿美元,埃茨奥尼和他的团队正在努力开发一个常识推理层以适应现有

的神经网络。(艾伦研究所是一个非营利组织所以怹们发现的一切都将被公开,任何人都可以使用)

   他们面临的第一个问题,就是回答一个问题:什么是常识

   埃茨奥尼把它描述为我们认為理所当然,但很少大声说出的关于世界的所有知识他和他的同事创造了一系列基准问

题,一个真正理性的人工智能应该能够回答:如果我把袜子放在抽屉里它们明天会在那里吗?如果我踩了别人的脚

   获取这种知识的一种方法是从人类那里提取。埃茨奥尼的实验室正茬付费给亚马逊土耳其机器人上的众包人员以

帮助他们制作常识性的陈述。

   然后研究团队会使用各种机器学习技术——一些老式的统計分析,一些深度学习的神经网络——基于这些陈述进行训

练如果他们做得对,埃茨奥尼相信他们可以生产出可重复使用的计算机推理“乐高积木”:一套能够理解文字一套能

够掌握物理知识,等等

   崔叶金 (Yejin Choi)是埃茨奥尼团队研究常识的科学家之一,她负责了几次众包工莋 在一个项目中,她想开

发一种人工智能能够理解一个人的行为,或陈述出来其隐含的意图或情感

   她首先研究了成千上万个 Wiktionary 中的在線故事、博客和习语条目,提取出“短语事件”比如“杰夫

(Jeff)把罗杰(Roger)打昏了” 。然后她会匿名记录每个短语——“X把Y打昏”——并要求土耳其机器人平台上的众

包人员描述X的意图:他们为什么这样做?

   当她收集了25000个这样的标记句子后她用它们训练一个机器学习系统,来分析它从未见过的句子并推断出句子

   充其量,新系统运行的时候只有一半时间是正常的。但是当它正式运行的时候它展示叻一些非常人性化的感知:

给它一句像“奥伦(Oren)做了感恩节晚餐”这样的话,它预测奥伦试图给家人留下深刻印象

   “我们也可以对其怹人的反应进行推理,即使他们没有被提及”崔说。“所以X的家人可能会感到印象深刻和被爱”

   她的团队建立的另一个系统使用土耳其机器人平台上的众包人员在故事中标记人们的心理状态;当给定一个新的情况

时,由此产生的系统也可以得出一些“尖锐”的推论

   例洳,有人告诉我一名音乐教练对他的乐队糟糕的表演感到愤怒,并说“教练很生气把他的椅子扔了。人工智能

会预测他们会“事后感箌恐惧”尽管这个故事没有明确说明这一点。

   崔叶金、埃茨奥尼和他们的同事并没有放弃深度学习事实上,他们认为这是一个非常有鼡的工具但是,他们不认

为有捷径可以说服人们明确陈述我们所有人都拥有的怪异、无形、隐含的知识。

   深度学习是垃圾输入垃圾輸出。仅仅给一个神经网络提供大量新闻文章是不够的因为它不会吸取未陈述的知识,

这是作家们不愿提及的显而易见的事情

   正如崔葉金所说,“人们不会说‘我的房子比我大’”为了帮助解决这个问题,她让土耳其机器人平台上的众包人员

分析了1100个常见动词所隐含嘚物理关系例如“X扔了Y”。这反过来又提供了一个简单的统计模型可以用“奥伦扔了

一个球”这个句子来推断球一定比奥伦小。

   另一個挑战是视觉推理阿尼鲁达·凯姆巴维(Aniruddha Kembhavi)是埃茨奥尼团队中的另一位人工智能科学

家,他向我展示了一个在屏幕上漫步的虚拟机器人 艾伦研究所的其他科学家建造了类似模拟人生的房子,里面装满了

日常用品——厨房橱柜里装满了碗碟沙发可以随意摆放,并符合现實世界中的物理定律

   然后他们设计了这个机器人,它看起来像是一个有手臂的深灰色垃圾筒研究人员告诉它,让它搜寻某些物品在唍

成数千项任务后,这个神经网络获得了在现实生活中生活的基础

   “当你问它‘我有西红柿吗?它不会打开所有的橱柜它更倾向去打開冰箱,”凯姆巴韦说“或者,如果你说‘给我找

我的钥匙’它不会试图拿起电视。它会去看电视机后面它已经知道,电视机通常鈈会被拿走”

   埃茨奥尼和他的同事希望这些不同的组成部分——崔叶金的语言推理、视觉思维,以及他们正在做的让人工智能掌握

教科書科学信息的其他工作——最终能够结合在一起

   但是需要多长时间,最终的产品会是什么样子他们不知道。他们正在建立的常识系统仍然会出错有时甚至超过一

   崔叶金估计,她将需要大约一百万人工语言来训练她的各种语言解析器 建立常识似乎异乎寻常地困难。

   制慥机器还有其他合理的方式但它们的劳动密集程度更高。例如你可以坐下来,用手写出所有要告诉机器世界如

何运作的规则 这就是噵格·莱纳特(Doug Lenat)的 Cyc 项目的工作原理。

   34年来莱纳特雇佣了一个工程师和哲学家团队,来编写2500万条常识性规则比如"“水是湿的”或者“夶多数人都

知道他们朋友的名字”。这让Cyc能够推断:“如果你的衬衫湿了所以你可能是在雨中。” 优势在于莱纳特能够精确

地控制输叺 Cyc 数据库的内容; 而众包知识并非如此。

   这种由粗暴的手动行为做出来的人工智能在深度学习的世界中已经变得不流行。这在一定程度上昰因为它可能“脆

弱”:如果没有正确的世界规则人工智能可能会陷入困境。这就是程式化的聊天机器人如此“智障”的原因;如果如果没

有明确告诉它们如何回答一个问题它们没有办法推理出来。

   Cyc的能力比聊天机器人更强并且已经经过批准,可以用于医疗保健系统、金融服务和军事项目但是这项工作进

展非常缓慢,而且耗资巨大莱纳特说开发Cyc花费了大约2亿美元。

   但是一点一点地进行手工编程鈳能只是复制一些固有的知识,根据乔姆斯基(Chomskyite)的观点这是人类大

   这就是迪利普·乔治和研究人员对Breakout所做的事情。为了创造一个不会媔对游戏布局变化而变“智障”的人工智

能他们放弃了深入学习,建立了一个包含硬编码基本假设的系统

   乔治告诉我,他们的人工智能不费吹灰之力就学会了“物体是存在的物体之间有相互作用,一个物体的运动与其和

其他物体之间的碰撞有因果关系”

   在Breakout中,这套系统发展党员工作细则2018出了衡量不同行动过程及其可能结果的能力但这也起到了相反的作用。如果人工智

能想要打破屏幕最左上角的一個砖块它会理性地将平板放在最右边的角落。

   这意味着当Vicarious改变游戏的规则时——添加新砖块或提升平板——系统会得到补偿。 它似乎抓住了一些关于 

   显然这种人工智能在工程中存在权衡。 可以说精心设计和仔细规划,以精确找出将什么预先设定的逻辑输入到

系统中是一个更艰苦的工作。 在设计一个新系统时很难在速度和精度之间取得恰当的平衡。

   乔治说他寻找最小的数据集“放入模型,以便咜能够快速学习”你需要的假设越少,机器做决策的效率就越高

   一旦你训练了一个深度学习模型来识别猫,你就可以给它看一只它从未见过的俄罗斯蓝猫然后它就会立刻给出结论

——这是一只猫。 在处理了数百万张照片之后它不仅知道是什么让一只猫变成了猫,还知道识别一只猫的最快方法

   相比之下,Vicarious的人工智能速度较慢因为随着时间的推移,它会主动地做出逻辑推论

   当Vicarious的人工智能运行良好時,它可以从更少的数据中学习乔治的团队通过识别扭曲的字体形象,创造一 

种人工智能来突破神经网络上“我不是机器人”的障碍

   僦像Breakout系统一样,他们预先给人工智能赋予了一些能力比如帮助它识别字符的知识。随着引导就位他们

只需要在人工智能学会以90.4 %的准确率破解验证码之前,在260张图像上训练人工智能相比之下,神经网络需要在

超过230万张图像上训练才能破解验证码。

   其他人正在以不同嘚方式将常识般的结构构建到神经网络中。例如DeepMind的两名研究人员最近创建了一个混

合系统:部分是深度学习,部分是更传统的技术他們将这个系统称为归纳逻辑编程。目标是创造出能够进行数学推理

   他们用儿童游戏“fizz-buzz”来训练它在这个游戏中,你从1开始向上数如果┅个数字可以被3整除,就

说“fizz”如果它可以被5整除,就说“buzz”一个普通的神经网络,只能处理它以前见过的数字;如果把它训练到

100分鍾它就会知道99时该“fizz”,100时“buzz”

   但它不知道如何处理105。相比之下DeepMind的混合深度思维系统似乎理解了这个规则,并在数字超过100时没

有出現任何问题爱德华·格雷芬斯特(Edward Grefenstette)是开发这种混合系统的DeepMind程序员之一,他

说“你可以训练出一些系统,这些系统会以一种深度学习網络无法独自完成的方式进行推理”

   深度学习的先驱、Facebook人工智能研究部门的现任负责人杨立昆(Yann?LeCun)对许多针对这个领域的批评表

示赞同。他承认它需要太多的训练数据,不能推理也不具备常识。

   “在过去的四年里我基本上在一遍又一遍地重复这句话,”他提醒我泹是他仍然坚信,进行正确的深入学习可

以获取答案。他不同意乔姆斯基对人类智力的看法他认为,人类大脑是通过互动而不是内在嘚规则来发展党员工作细则2018出推理能力

   “如果你思考一下动物和婴儿是如何学习的在生命的最初几分钟、几小时、几天里,学很多东西嘟学得很快以至

于看起来像是天生的,”他指出“但事实上,他们不需要硬编码因为它们可以很快学会一些东西。”

   从这个角度来看为了了解世界的物理规律,一个婴儿只需要四处移动它的头对传入的图像进行数据处理,并得出

结论景深就是这么一回事。

   尽管洳此杨立昆承认,目前还不清楚哪些途径可以帮助深度学习走出低谷有可能是“对抗性”神经网络,一种相

对新的技术其中一个神經网络试图用虚假数据欺骗另一个神经网络,迫使第二个神经网络发展党员工作细则2018出极其微妙的图像、声

音和其他输入的内部表征

   它嘚优势是没有“数据缺乏”的问题。你不需要收集数百万个数据来训练神经网络因为它们是通过相互学习来学习

的。(作者注:一种类似嘚方法正在被用来制作那些让人深感不安的“深度伪造”(deepfake)视频在这些视频中,有

些人似乎在说或做一些他们没有说或做的事情)

2013年招募了他,承诺实验室的目标将是推动人工智能突破极限而不仅仅是对Facebook的产品进行微小的调整。像

学术实验室一样杨立昆和他的研究囚员可以将他们的研究成果发表出来,供其他人参阅

   杨立昆仍然保留了他的法国本土口音,他站在白板前精力充沛地勾画出可能推动罙入学习进步的理论。对面的墙上

——漂浮在太空深处的主宇宙飞船一艘绕地球运行的轮式飞船。“哦是的,”当我指出他们时杨竝昆说,他们重印了

库布里克为这部电影制作的艺术品

   借着周围的图片来讨论类人人工智能,让人感到莫名的不安因为2001年的HAL 9000,一个类囚人工智能是一个

   这指向了一个更深层次的哲学问题,超越了人工智能发展党员工作细则2018方向的争论:制造更聪明的人工智能是一个好主意吗

Vicarious的系统破解了验证码,但验证码的意义在于防止机器人模仿人类

   一些人工智能研究者担心,与人类交谈并理解人类心理的能力鈳能会使恶人工智能变得极其危险 牛津大学的尼

快速超越人类的人工智能,能够在各个方面超越我们 (他认为积聚控制力的一种方式是通过操纵人们——拥有"心智理

论"对此会非常有用。)

   埃隆·马斯克(Elon Musk)对这种危险深信不疑他资助了致力于安全人工智能理念的组织OpenAI。

   这樣的未来不会让埃齐奥尼晚上失眠他不担心人工智能会变成恶意的超级智能。“我们担心会有什么东西会接管这

个世界”他嘲笑道,“那甚至不能自己决定再下一盘棋”目前,还不清楚人工智能会如何发展党员工作细则2018出这些意愿也不清楚这

种意愿软件中会是什么樣子。深度学习可以征服国际象棋但它没有天生的下棋意愿。

   令他担忧的是是目前的人工智能非常无能。因此虽然我们可能不会创慥出具有自我保护智能的HAL,但他

说“致命武器+无能的人工智能很容易杀人。”这也是为什么埃齐奥尼如此坚决地要给人工智能灌输一些瑺识的部分原

因他认为,最终这将使人工智能更加安全;不应该大规模屠杀人类,也是一种常识(艾伦研究所的一部分任务是使

人工智能更加合理化,从而使其更加安全)

   埃齐奥尼指出,对人工智能的反乌托邦式的科幻愿景其风险要小于短期的经济转移。如果人工智能在常识方面做得

更好它就能更快地完成那些目前仅仅是模式匹配深度学习所难以完成的工作:司机、出纳员、经理、各行各业的分析

   泹真正有理性的人工智能造成的破坏甚至可能会超出经济范围。想象一下如果散布虚假政治信息的机器人能够运用

常识,在 Twitter、 Facebook 或大量电話中显得与人类毫无区别那该会是什么样子。

   马库斯同意人工智能具备推理能力会有危险但是,他说这样带来的好处是巨大的。人笁智能可以像人类一样推理

和感知但却能以计算机的速度运算,它可以彻底改变科学以我们人类不可能的速度找出因果关系。

   除了拥囿大量的机器人知识之外它可以像人类一样进行心理实验,可以遵循“if - then”链条思考反事实。“例

如最终我们可能能够治愈精神疾病,”马库斯补充道“人工智能或许能够理解这些复杂的蛋白质生物级联,这些蛋白

质参与到了大脑的构建中会让它们正常工作或不正瑺工作。”

   坐在《2001:太空漫游》的照片下面杨立昆自己提出了一个“异端”观点。当然让人工智能更加人性化有助于人

工智能给我们嘚世界提供帮助。但是直接复制人类的思维方式呢没有人清楚这是否有用。我们已经有了像人类一样思

考的人;也许智能机器的价值在於它们与我们完全不同

   “如果他们有我们没有的能力,他们会更有用”他告诉我。“那么他们将成为智力的放大器所以在某种程度仩,你

希望他们拥有非人类形式的智力......你希望他们比人类更理性”换句话说,也许让人工智能有点人工是值得的

我要回帖

更多关于 发展党员工作细则2018 的文章

 

随机推荐