蒸汽机器人厉害么要是制作出来比人类还厉害的话,那人类还是节哀节哀顺便吧。

机器人时代 人类还是“有用的”(图)
文/刘英团独立书评人  书名:机器人时代
  作者:美国马丁·福特(Martin Ford)
  译者:王吉美/牛筱萌
  出版者:中信出版社
  出版时间:2015年7月
  虚拟世界中的机器人令人惊叹。现实中,机器人产业也令人眩目。比如,广东省就提出,至2017年,初步建成10个具有较大影响力的智能制造产业基地,建成2个国内领先的机器人制造产业基地,推动1950家规模以上工业企业开展“机器换人”。
  技术突飞猛进的本质,就是要替代人类劳动,“它很可能对我们的整个文明都将造成破坏”,硅谷企业家马丁·福特(Martin Ford)在《机器人时代》一书中说道。“回顾历史,随着技术革新,人类一直在失去原有的岗位,却又创造出新的岗位,逐渐进化才是人类的发展进程。”日本“人形机器人”领域顶级科学家大阪大学教授石黑浩认为,机器人将改变人类生活模式。2013年6月,Google的安卓高级主管雨果·巴拉即透露,Google已经拥有“近乎完美”的英语和葡萄牙语实时语音翻译。自动写作技术也已被包括《福布斯》在内的顶级新闻媒体所使用,其30秒钟自动生成的文章涵盖各个领域,包括体育、商业和政治等。而且,“未来15年,由程序写出的新闻文章的比例或许真能达到90%以上”,“不少所谓的‘好工作’都将成为‘过去时’。很多律师助理、记者、上班族,甚至电脑程序员都将被机器人和智能软件所取代”(马丁·福特)。
  “现在我们人类就像一群摆弄着一颗危险炸弹的无知孩童。即便是出于好意而创造的人工智能,它仍有犯下种族灭绝罪行的倾向。”牛津大学哲学教授尼克·博斯特伦与詹姆斯·巴拉特警告称,而史蒂芬·霍金也称“未来100年内,人工智能将比人类更为聪明,机器人将控制人类”。不少科学家认为,在越过“奇点”后,人工智能机器将比其制造者——人更加聪明。他们认为,过了这个点,一切都将以现在不可预测、无法想象的速度和形式发展了。以传统角度来看,自人类劳动带动生产力发展以来,生产力就与经济增长和就业增长形势息息相关。这就不免让人担心,如果机器人取代人类,不但整个劳动交换工资的体系会分崩离析,人类从事工作还有意义(或必要)吗?当人类不再需要工作,双手会不会退化成“猿猴的爪子”?
  机器人果真能毁灭人类?福特认为,这一“想法完全错了,因为情况绝非如此”。英国计算机先驱阿兰·图灵设计了一个甄别实验:一台计算机和一个人做竞赛,说服一个看不到它们的观察者,使其相信自己才是真正的人类。当机器人至少把半数观察者蒙骗了,才算通过了测试。但是,至今尚无一台计算机接近于通过测试。所以,所有对机器人将抢走人类工作、占领世界的恐惧都是毫无根据的。一如谷歌董事长施密特所言,“对人工智能的担忧,是正常的,也是必要的。但机器人与人类先前的任何前沿技术并无二致。历史经验已证明,过去的经济繁荣,大多数是因为采用新技术。”
  机器人可以替代人类从事某些工作,但是不能代替人本身。“机器人会成为我们的朋友”(施密特),科学进步终将为人类带来更美好的未来。尽管智能机器人在技能上能取代相当部分人类,但人类依旧控制着政治、社会和文化体系,并因此有能力做出最终决定。在机器人时代,人类还将继续扮演“有用的工人”,像感情、创造力、判断力和批判性思维还得靠人类实现。
  机器人时代到来了,作为科技创新和制造业水准的标志,无论是德国的工业4.0,还是中国的“中国制造2025”,或者是美国的“工业互联网”,都缺不了机器人的身影。根据“中国制造2025”,中国未来十年将以数字化、智能化与工业化、信息化的深度融合为主线“让变革发生”,重点推动新一代信息技术、高档数控机床和机器人……一如诺贝尔奖得主、麻省理工学院经济学家罗伯特·索洛(Robert Solow)所言,“数字化使得几乎任何情形都有海量数据可以利用,而且此类信息可以被无限复制和重复使用。”智能机器人的广泛应用,正预示着一股强劲的市场需求正在萌发,更代表了工业自动化生产的发展方向。不可避免地,它将以压倒性的优势主导着制造业的未来。但是,这其实是一场管理模式的变革。说到底,机器人技术到底是为人类造福,还是为祸,仍取决于我们人类自己的选择。人类创造了技术,人类依旧能决定技术以何种方式塑造人类的未来。
本文来源:四川新闻网-成都晚报
关键词阅读:
不做嘴炮 只管约到
跟贴热词:
文明上网,登录发贴
网友评论仅供其表达个人看法,并不表明网易立场。
热门产品:   
:        
:         
热门影院:
用微信扫描二维码分享至好友和朋友圈钛媒体 TMT|创新|创业钛度要点:
一说起人工智能的未来有个话题永远躲不过,那就是它会给人类带来什么,毁灭还是福祉?马斯克发起的新组织OpenAI,就是致力于“阻止机器人太快的取代人类”,但,开源可能带来更大的风险?钛媒体注:特斯拉CEO马斯克发起的新组织OpenAI,据称是致力于推进数字智能,以一种最有可能造福全人类的方式,尽可能广泛均匀地分布。而这个组织的使命,将是“阻止机器人太快的取代人类”(回复“掌管地球”详见文章20个问题揭秘OpenAI:马斯克要怎样阻止机器人掌管地球)。但,开源也同样带来了问题,比如:韩梅梅深知,设计有缺陷的AI可能失控并毁灭人类,因此她将反复调试自己设计的AI以确保安全性。李雷才懒得费心,他只想快点研究出来,成为世界上第一个完成的人。如果韩梅梅先完成研究,那研究出来的AI的确能继续保护人类。然而要是李雷捷足先登,或许人类就大难临头了。OpenAI创始人们所设想的可怕未来到底是怎样的。AI的发展会快而危险,还是慢但安全?是被一个公司独占,还是几个公司垄断?用OpenAI来解决这些「可怕」之处,似乎都不能抵消开源带来的风险。本文由钛媒体编辑Joyce编译自博客Slate Star Codex对OpenAI项目的评论。作者Scott S. Alexander(笔名)从历史、哲学、政治等角度对AI开源的利弊进行了综合评述。本文由“135编辑器”提供技术支持一早在1914年,科幻作家赫伯特·乔治·威尔斯(H. G. Wells)就在其小说《获得自由的世界》(The World Set Free)中颇为精准地预言了核武器:他们没有见过战争,他们见到战争是在自己那笨拙的手学会了引爆原子弹的时刻……一个人能用手提包装上足以毁灭半个城市数量的潜在能源并且到处跑,这在上次战争爆发前已普遍为人所知。威尔斯认为,即将降临他的时代的原子弹将具有毁灭性的力量,因此人类不可避免地需要创造一个乌托邦式的全球政府,以避免原子弹的使用乃至诞生。想法挺好的,可惜没成真。但是我得告诉你,在年代,无论知识分子还是金融精英都认真思考着威尔斯的观点。试想一下,第一个国家得到原子弹后会发生什么?会给战争进程带来不可遏止的影响,让这个国家统领全世界,产生暴君?如果是这样,人类自由和历史进程可真要完蛋了。所以,到了1920年,这些精英投入了所有资源来创造自己的曼哈顿计划。接下来的十年里,他们有了成果,学会了核裂变,特别是认识到铀是一项必须的资源,而全世界的铀资源又那么少,一国或几国的联盟就可能将其垄断。「原子暴政」的幻象成了挥之不去的恶梦。所以,精英们让物理学家日以继夜地研究,终于发明出一种不需要铀的核武器;只要懂得个中原理,随便一个人随便找个引擎就能造出来。唯一的缺点是,造这种新式核武器得讲求精确,否则就会因失败而爆炸,让半个地球烟消云散。然而制造这种核武的确不需要任何像铀一样容易受人掌控的资源。于是,知识分子和金融精英宣告了最终的胜利,如今没有哪个国家可以独占原子武器了,每家每户也都掌握了用引擎造核武的技术。于是,不到一个星期,地球不出意料地被人类炸毁了。二那些硅谷巨头发起的新组织OpenAI,据称是致力于「推进数字智能,以一种最有可能造福全人类的方式……尽可能广泛均匀地分布」。联合主席马斯克和阿尔特曼在接受Steven Levy的采访中不断讨论的一个问题是,谁将凌驾于全人类之上来「使用」这种超人类的智能,仿佛AI只是微波炉之类的东西。我可不同意这种说法。我想,如果让马斯克也表示支持的那位牛津大学哲学系教授尼克·博斯特罗姆(Nick Bostrom)来评论,他大概不会用邪恶博士作比,而是把AI的发展进程比做道德博士(Dr. Good)和无道德博士(Dr. Amoral)的博弈——姑且把他们叫做韩梅梅和李雷好了。韩梅梅深知,设计有缺陷的AI可能失控并毁灭人类,因此她将反复调试自己设计的AI以确保安全性。李雷才懒得费心,他只想快点研究出来,成为世界上第一个完成的人。如果韩梅梅先完成研究,那研究出来的AI的确能继续保护人类。然而要是李雷捷足先登,或许人类就大难临头了。牛津大学哲学系教授、超人类学家Nick Bostrom在这场竞赛里,李雷显然赢定了,因为他不需担心AI的行为是否安全,更不用长时间进行测试,看AI是否稳定安全。不过韩梅梅也有优势,因为那些最聪明的AI研究者或许也能意识到个中风险,然后加入好人的队伍。然而,开源的AI项目成了压垮人类的最后一根稻草。韩梅梅和她的队伍在理论上已经准备就绪,但必须「明智地」延后真正做出模型的时间,毕竟安全问题还没解决。我们接着想象,他们接下来把研究成果在网上全部公布了。这下李雷同学也知道了,把韩梅梅的程序往电脑里一运行,「duang」——邪恶的超人AI出现了,世界末日来了。将AI研究开源,实为风险和收益之间的折衷做法。风险在于,成果可能被坏人所用,因此研究者必须尽可能加快研发进程。收益在于,当今人类智能发展缓慢,AI也还容易控制,占有现有水平的AI也不能让坏人获得多大的力量。不幸的是,我认为当今世界不适用这样的情况。在我们的世界里,AI从低于人类水平发展到超人类智能将是一个快速的进程,简直快到危险。我们完全无法用事先准备的手段对其加以控制。三不少如博斯特罗姆这样的学者都表示过类似的担忧。AI的发展或会经历一个「硬起飞」(hard takeoff),在临界点突变并接管全世界。比方说,你在1月1号拿到一个AI玩具,它的智力水平只有一头牛那么高。那么到了2月1号,研究出来的AI已经可以解决黎曼猜想冲向太空了。这就叫硬起飞。这并非天马行空,人类历史早有类似的例子。人类花了两千万年才从四肢着地进化为直立行走,此后却只花了几万年就有了核武器。要是有一份客观的动物IQ评分体系,其制定基础就以到达某一智能水平所经历的进化过程、大脑结构复杂性等为标准。这样,我们可能会把线虫的IQ定为1,牛是90,黑猩猩是99,直立人是99.9,现代人是100。99.9和100相差多少?不过是前者「总是被狮子吃掉」,而后者「得通过反偷猎法律来避免狮子灭绝。」更糟糕的是,人类智能无法增长的原因其实相当愚蠢。有人相信,选择性地培育聪明人能够多少起点作用。把聪明人都找出来,让他们之间通婚,延续几代,仿佛这样就能生出天赋异禀、智能跃升的后代。多么奇怪的想法,这些人的孩子又不会多长一个脑子。智能的进化不同于物竞天择的过程,适者生存是在非洲大草原上才会发生的事。猩猩和人类的区别不在于有什么不同的分子机制,只是特定环境筛选出了智能水平更高的猩猩,人类就往「脑容量更大」的方向进化了。(无论是不同物种间还是不同人类个体件,智力水平都跟大脑容量密切相关。有趣的一点是,我们之所以没法变得更聪明,或许是因为产道里挤不下更大的头?)如果你相信所谓德裔犹太人(Ashkenazi Jews,或阿什肯纳兹犹太人)更聪明的假设,只需让你的文化也更注重IQ而非颜值即可,这样延续个几代,IQ必然会整体上升。头戴民族传统基帕(Kipa)的青年犹太人,图片来自知乎。有理论指出,Ashkenazi Jew在公元800年到1700年间受到歧视,这些犹太人被迫在中欧和西欧从事与高利贷和贸易相关的工作(这在当时是受人鄙视的职业),而在这个工作中获得杰出成果的重要因素就是智商,因此高智商的犹太人更容易成为富有的高利贷或者贸易商人,高IQ也就被「选择」并遗传下来。莎士比亚《威尼斯商人》中的放贷商人即犹太人。我认为,人类智能的进一步提升,得靠一点硬碰硬的设计或工程活。限制智能发展的因素不再是哥伦布那样的新发现,而是实际的利益权衡,比如「产道里最大能塞下多大的头」或「迅速成长的神经元会不会也同时提高癌症风险」。电脑不用想这些问题,所以AI研究者只需要发展出一些相对基本的原则——比如说怎么能达到牛的智能水平——此后,只需让AI的神经元不断分裂,一定的量变就能促成质变。(记住这一点——从美索不达米亚文明一直到19世纪英国工业革命,人类才发明出跟走路速度差不多的交通工具。然而在这之后,只花了四年速度就翻倍了。)如果「硬起飞」理论成真,OpenAI的策略就非常值得怀疑。从造出第一个有用的AI,到AI迅速失控,留给人类的喘息时间不过是一线之间。四OpenAI还忽略了AI风险的另一个方面:控制问题。那个访谈里,讲的都是「大企业会不会使用AI」或者「邪恶博士会不会使用AI」,要不就是「AI的使用会不会造福全人类」,这就预设了一个前提:你能够使用AI。大部分思考AI风险的人都觉得,AI不会带来什么危险,要是那个邪恶的李雷也是个拖延症患者或懒癌后期就更是如此。想想那个经典的程序员难题:电脑不会总是按你的想法去办,它只会按编写的程序行事。大部分的电脑程序也不会在进行第一次调试时一帆风顺。谷歌地图的调试任务已经相对简单了(只需在两点之间寻找路线),不断被谷歌最优秀的工程师年复一年地优化,也有全球千万用户的测评数据,如今依然会偶尔犯错,带领你冲下山崖或穿越大洋。人类的神经元结构当然比程序好多了,从逻辑上就能推导地图给你指错路了。但程序不会认错,只会耸耸肩,说你的证据不够,我只会跟着自己代码推算出来的正确路线走。因此,要让电脑达到人类的智能,必须投入大量人力、经历大量试错过程。如果AI的驱动也像谷歌地图一样不通情理、执迷不悟,那它也就没有办法进行自我修正,必须让人类给其植入自我纠正的程序——这可一点也不容易。而聪明的AI或许会发现人类其实希望它聪明点,别直接冲到悬崖下,但它已经聪明到不会按人类意愿行事,继续装聋作哑。换言之,失控了。当谷歌地图指引人们冲到悬崖下后,谷歌会默默地给程序打上补丁。然而,聪明的AI或许已经比人类更强大,不需要我们的补丁,甚至主动防止我们侵入其程序。这就好比,一群外星人突然坐着UFO来到地球,说它们创造了我们人类,但是程序出错了,人类应该吃自己的孩子,我们快去排队接受补丁程序的修正吧。此时,联手起义反击的人类就好比聪明到拒绝被控制的AI.如果说低智能AI到超人类AI只需很短的时间,人类根本无法进行测试,乃至妄想提高稳定性和安全性。也就是说,超人AI不仅可能对人类带来危险,还会从根本上抗拒人类修改它的程序。即使现在想到了这个问题,如何能够谨慎地进行每个步骤的调试也只会更加困难。让AI开源,我们就连最后的准备机会也失去了。当韩梅梅在辛苦调试的时候,李雷已经按下了那个引爆世界的开关。五先总结一下,让AI研究开源是风险与收益的折中选择。风险在于,假设硬起飞和控制问题的确存在,疯狂的超人AI会毁了全人类,所以研发者必须加快速度抢先研究出来。收益在于,只要世界的智能研究发展缓慢,人类就能控制AI,独占低水平AI也不能带来多大的权力。但是,这里的收益显然不能跟风险相抵。我疑惑的是,OpenAI创始人们所设想的可怕未来到底是怎样的。AI的发展会快而危险,还是慢但安全?是被一个公司独占,还是几个公司垄断?用OpenAI来解决这些「可怕」之处,似乎都不能抵消开源带来的风险。我们就假设AI的发展是慢而安全的,一开始由一家公司掌控,逐渐地进入家家户户。微软Windows系统的发展不也是这样吗?有一段时间,人们也非常恐惧微软会借此垄断互联网乃至全世界。可是,微软很快就被苹果和谷歌赶上,喜欢开源的人还能选择Linux。无论什么时候推出了新的Windows,只消几日就会被黑客盯上。或者说,我们担心AI被富人所用,拉大贫富差距?想想如今横行的盗版免费软件吧。Windows和谷歌搜索都是融合了无数人努力的复杂产品。现在,Windows是绑定在PC上的,谷歌搜索压根就是免费的。人们早就开发出无数免费产品跟这两大巨头竞争。富人或许的确买得起高级版AI,但我无法将此与AI毁灭人类的宏大命题相比较。曾经,美国是唯一一个拥有核武器的国家。投下两颗原子弹时,美国就失去了优势,让俄国学到了制造的法门,导致如今从以色列到朝鲜的各国都拥有了核武器——还好现在的日子还不错。如果我们实在太害怕美国的战术优势,决定把这极不稳定的核武器普及到全世界各地,或许现在最该考虑的怎么也轮不到AI问题。马斯克有句著名的话,AI比核武器更危险。他是对的。既然核武器没有开源,或许让AI开源也是歧途。六不过,马斯克本人也参与了这个项目,还有阿尔特曼、彼得·蒂尔等人。据我所知,他们都读过且推崇博斯特罗姆的观点,都相当了解AI的风险并忧心忡忡。所以,我最大的希望,就是这些人(就像平时一样)比我更聪明,比我知道得更多。我的第二大希望,就是他们迟早会发现,这件事只是一个简单的小错误。人们总不会让错误长期存在,所以他们不久之后就会打消这个主意。但是,我担心事情会比以上两点都更糟糕。我跟一些相关领域的人士聊过,最深刻的印象就是AI领域的竞争日益激烈。有些被坏蛋李雷领导的团队正在加快脚步,不知道韩梅梅队伍能否在确保安全谨慎的同时也加快速度。我只能希望,研究者都是聪明人,知道该站在哪边,该跟谁合作。我也只能希望我的判断是错的,不然这就真的沦为一场紧锣密鼓的研发竞赛,而其他的人类价值观都被抛诸脑后。若真如上所述,OpenAI项目就是在绝望地自寻死路。或许通过开源来吸纳更多学术界人才,韩梅梅能得到激励,加快开发速度且保证安全调试。如果硅谷巨头们是这么考虑他们的策略的,我也不会去质疑这些比我聪明比我强的人。我只能烧香拜佛,祈祷那些OpenAI的头头们知道自己在干什么,保证不在安全性的研究上吝惜,并且在共享研究成果时能有审慎的决策过程。然而,我谈到最后一点时就不免胆战心惊,因为那说明我们的确还没有能力承担后果,只是在跌跌撞撞地走向灭绝的终点,因为对人类来说,达成合作一直都是个大难题。我想用英国记者马尔科姆·蒙格瑞奇(Malcolm Muggeridge)的话作结。目睹二战狼烟四起时,他如是写道:所有这些,同样会毫无疑问地成为历史,接受历史的洗礼与评述:无论是希律王对伯利恒所有无辜男婴的屠杀还是一战的帕斯尚尔战役,还是中世纪的黑死病,无一能够幸免。但凡事皆有另一面:人类还有不朽的死亡愿望,极大的毁灭性力量一旦释放,将横扫世上每一事物、每个个体,直到烧毁杀死、尸横遍野,直到化为乌有……从那以后,我也再没有哪怕一丝微弱的期望:用世俗的说法,就是遗迹能得到抢救、战争能迎来胜利、地球能迎来福音。没有希望。人类只是在浑浑噩噩,步入无尽黑夜。(本文首发钛媒体)长按下方二维码,关注 钛媒体回复关键词【AI】获取更多内容《一篇文章看懂谷歌的人工智能帝国,为什么这里一切都是 AI ?》最好看的创新商业资讯平台,最好玩的创新产品交流社区。速戳 “阅读原文”下载钛媒体客户端 APP!
看过本文的人还看过
人气:35869 更新:
人气:33440 更新:
人气:29597 更新:
人气:24756 更新:
钛媒体的更多文章
大家在看 ^+^
推荐阅读 ^o^
这轮年中促买到便宜了吗?他变着法促销,你却盯了一个月购物车尴尬癌都犯了!
又酷又实用!这个黑科技或许能救你一命!
高效管理者的八个习惯
万万没想到,喜欢起诉人家专利侵权的大苹果,在中国遭遇一堆专利官司
猜你喜欢 ^_^
24小时热门文章
微信扫一扫
分享到朋友圈假如有一天人类科技发达到机器人可以代替人类做大部份工作,那普通劳动
者的生活将会变好还是变坏?
有的人觉得会变好 ,那时候说明人类的科技很发达了,人类的生产力上升到很高的水平,效率变高,产出的财富比由人类自己工作多,很多危险的工作都可以由机器人代替了。而且完全可以由机器人来代替人类照顾小孩老人残疾人等等,这些都比人类自己来做好。
有的人觉得普通人的生活水平会变的很差 ,因为大多数工作都被机器或者机器人取代了,大把大把的人会失业,比如马路清洁人,工厂工人,司机,整个服务业,甚至妓女,甚至军队都可以由部份机器人代替。普通人可能都找不到工作,没工作没收入靠低保过活怎么可能过的好 。可能会说那时整个社会是富有的,统治者会养普通人。但是我想的是,这时候普通人对统治者来说还有用处吗。统治者之所以要统治普通人 ,是因为普通人会给统治者创造财富,现在这一切都由机器人取代了,那普通人民不是没用了吗。他们只要少数优秀的人来开发维护生产机器人就得了。这时候整个战争机器是由统治者牢牢抓住的,普通人民想像以前一样造反是不可能的。那这时候统治者完全可以抛弃一部份人民。
具体是怎么样的情景求大神分析。
另,有没有讲述机器人代替人类工作之后社会情况的小说或者电影什么的,求推荐。
人类是一直在进步的。
20年前会英文有驾照会使用电脑就是个人才了,现在这样的人只是普通劳动者。
未来人类会多种语言和各种电脑编程,完全可以自己调配使用机器人。
做到与时俱进就可以了。人的大脑潜力还远远没开发完。
人不应该创造出超越人类智慧的机器人,否者人类会被淘汰。
1.如楼上,大量基本的重复性工作都将使用机器人(很多律师事务所现在已经使用电脑阅读文档了),大量的人将被迫开始更高级的工作(如编程)。至于会不会出现大规模失业,这要看政府是否有能力有意愿提供充足的教育资源。2.再考虑进一步,如果出现具有和人类相同思维能力的机器人呢。机器人同样具有创造力和缜密的思考能力,可以推动科技继续发展下去,操控着社会中的所有生产活动。那人类似乎除了享受阳光与食物之外,没有任何存在的价值。
已有帐号?
无法登录?
社交帐号登录机器人三大定律真的正确么?--百度百家
机器人三大定律真的正确么?
分享到微信朋友圈
作为机器人的圣经,阿西莫夫的机器人三大定律真的正确么?如果不正确我们该怎么办?
机器人三大原则真的正确么?
机器人一词来源于捷克作家“万能的机器人公司”,而作为舶来品的robot本身就是强迫劳动的意思,可以说robot诞生之初就确定了他可悲的奴隶命运。用我们现有的认知来看,奴隶制度本身就是落后的代名词。所以才会发生机器人起义这样的悲剧。
为了避免,机器人残害人类,科幻巨匠阿西莫夫于1942年,首先在他的短篇小说"Runaround"(《环舞》)中首次提出了三定律:
一 机器人不得伤害人类,或因不作为使人类受到伤害。
二 除非违背第一定律,机器人必须服从人类的命令。
三 除非违背第一及第二定律,机器人必须保护自己。
但后来,阿西莫夫加入了一条新定律:第零定律。
零 机器人不得伤害人类整体,或因不作为使人类整体受到伤害。
我们先不管将机器人当做奴隶这种本质的错误,我们就先以大部分人想当然的奴隶主的身份来探讨下机器人三大原则,看其是否能够保证人类永远奴役机器人。
机器人的圣经
我们首先来肯定下三大定律的杰出贡献,阿西莫夫的机器人三定律,可以用简单、明了、震撼三个词来形容。三大定律环环相扣,有如公式般的美感,让人无比折服。阿西莫夫本人也曾经无不自豪的说过:“三定律是理性人类对待机器人(或者任何别的东西)的唯一方式”。
阿西莫夫采取了一种类似于归谬法的手段来证明三大定律的和谐自洽。即提出它们的变体,然后又在科幻故事中展示这些变体所带来的的逻辑困境与伦理学灾难。正是这些作品让更多的人类意识到了机器人的恐怖,以及三大定律的重要性。比如阿西莫夫在《机器人与帝国》中展示了这条定律所带来的毁灭性力量。诞生之初被赋予机器人三定律的VIKI,在自然进化的过程中跨越了三定律的界限,获得了“零规则”这一高等智慧,经过计算,她认为任由人类发展只会导致更多的灾难、战争和贫穷,于是在“零规则”的支配下,她只能选择用自己理性的“大脑”支配和保护人类,以免这一物种的灭绝———实际上,“她”还是在为人类着想,但代价是抹消人类的自由意志。
在阿西莫夫以前,还没有人能够提出这么具有历史意义的机器人法则,可以说直到今天还没有人能够提出优于阿西莫夫的定律,因此说它是机器人的圣经一点也不为过。
历史局限性
客观地说,阿西莫夫的三大定律提得比较早,虽然在科幻小说或者机器人相关的题材作品里被当做圣经一样崇拜,但是作为那个时代的人类来说还有一定的局限性。
因为那个时代的机器人是按照冯诺依曼的思想来设计的。程序员可以随心所欲的控制它们的行为,那时候的机器是一个确定性的系统,只需加载一条条指令,它们就按程序员所设想的那样工作。
而在今天,人工智能的设计发生了很大变化,科学家们意识到,那种冯诺依曼式的自上而下的控制式程序不太可能实现人工智能,现今最优秀的人工智能都是基于遗传算法,它模拟是大脑的神经网络的工作方式,人们为这样的技术付出的代价就是,人们再也不可能完全理解人工智能是如何工作的了。人们只能通过对输出进行观察然后形成一个关于人工智能行为的经验性感觉,机器的内部工作原理之于程序员更像是一个黑箱。举个例子,未来的机器人可能会很有效的执行到超市购物的这一行为,但是不管程序员如何修改他的适度函数,也很难保证机器人在购物途中不去伤害一只挡道的猫,或者破坏一辆汽车。
阿西莫夫同样忽略了计算机智能可能会诞生在网络,人们很容易设计出一套协议来确保网络中的某个节点不会制造混乱,但却无法控制计算机网络的智能涌现。
三大定律的另一局限性还表现在,阿西莫无法预测物联网的到来。物联网时代物物相联,而在阿西莫的作品中则大部分生活都如常——只不过多了些人形智能机器人走来走去而已,但这种未来不太可能实现,或者就算是它实现了,也只会存在很短的时间,现在智能手机、智能家居、智能医疗、甚至智慧城市已经悄然兴起,机器人将生活在一个物联网的社会里。因此我们说阿西莫夫三大定理有着一定的历史局限性。
在工程师利用计算机实现人工智能的同时,他们发现了一个非常棘手的问题,那就是计算机的运算过程是不允许有歧义性的。如果存在这样的歧义性计算机将无法工作。在计算机的世界里只有0和1、对和错,没有摸凌两可存在。而人类的文字和语言则充斥着这种“仁者见仁智者见智”的歧义性。同样一个词在不同的人看来意义就不同,甚至法律这种看似牢不可破的堡垒都有律师来将他们打破。
要遵循第一定律,首先得明白“什么是人?”。事实上,这是一个连柏拉图都没能弄清楚的问题,中国古代的哲学家把这个问题导向无趣的虚无主义,有的人陷入白马非马的逻辑悖论中难以自拔。人类在哲学上可能难以触摸到“人”的本质,但在生活中并不存在概念困境。这正是由人脑的模糊性特点所决定的。一个元素a和一个集合A的关系,不是绝对的“属于”或“不属于”的关系,而需用考虑它属于集合A的程度是多少,人类正是通过 “隶属度”模糊数学的集合概念,轻易地解决了“比光头多1根头发的是秃子,比秃子多N根头发仍是秃子”的悖谬。但以布尔逻辑运算为核心的机器智能能做到吗?或许,人类为了让机器人更人性化、在日常生活中的工作更具灵活性,可能会引入模糊处理的操作程序。但问题总是相伴而生,既然它都已经模糊处理了,它未尝不会在“三大定律”上也进行模糊处理,把它该尽的义务给马赛克掉呢?
首先,光信息无法教会机器人明白“什么是人”。人类很早以前就发现,外形是会骗人的。仿真机器人、克隆人、全息三维图像不光能令机器人冒烟,也会令真正的人类抓狂。
其次,记忆信息无法帮助机器人判别“什么是人”,因为记忆是能够复制的。真假美猴王的故事深刻地教育了唐僧,念紧箍咒只能显得你很低级白吃。如来佛能区别大圣与猕猴,可惜机器人中没有如来佛。
最高级的判别方式无疑是图灵测试。且不说这一方法在操作上具有时间上的不可行性,其实,机器人通过图灵测试已经是指日可待的事。这里面还有一个有趣的悖论,机器人若自己已经通过图灵测试,它就已经跨入人的行列,它何必还遵循该死的“紧箍咒”三大定律呢。更可怕的是,不排除有很多无辜的人类,由于发神经或先天性处于边缘智力的缘故而通不过图灵测试,这样一来,已经通过图灵测试的机器人是不是也会产生一种道德上的优越感而命令人类服从三大定律呢。如此看来,以简洁明了、感性闻名于世的图灵测试的危险性绝不亚于以简洁明了、理性而彪炳史册的阿西莫夫三大定律。
然后,鉴于第三定律中提到“绝不能伤害自己”,问题又来了:什么是自己?
人类很早就明白,概念的自指容易导致大脑当机。只给那些不给自己理发的理发师如何才能给自己理发这样的问题已经让N个哲学家疯掉了,但生活中的普通人从来没有这样的烦恼。因为他们明白:珍爱生命,就应远离国足与无穷循环。
后来又补充了机器人零定律:为什么后来要定出这条“零定律”呢?打个比方,为了维持国家或者说世界的整体秩序,我们制定法律,必须要执行一些人的死刑。这种情况下,机器人该不该阻止死刑的执行呢?显然是不允许的,因为这样就破坏了我们维持的秩序,也就是伤害了人类的整体利益。
最后,我们来说下伤害。什么是伤害,伤害是指物理上的还是精神上的,伤害范围和程度如何界定,轻微的划痕和碰撞是否属于伤害,修剪指甲和理发是否属于严重伤害。这种由某类人来决定的范围怎么可以成为一个通用的法则呢?
三定律加上零定律,看来堪称完美,但是“人类的整体利益”这种混沌的概念,连人类自己都搞不明白,更不要说那些用0和1来想问题的机器人了。威尔o史密斯曾说:“《我,机器人》的中心概念是机器人没有问题,科技本身也不是问题,人类逻辑的极限才是真正的问题。”
当毒蛇咬了自己手指,果断砍掉这截手指才能保住小命。这是一个很浅显的道理。当腐女在家看电视把腿烂掉,换一条合金纳米材料复合式轻型假肢才是正经事。我还是我,不会因为丢掉一部分而丧失整个的我。但丢掉N部分呢?我家祖传一把斧子,我爷爷换掉了它的斧头,我爸爸换掉了它的斧柄,我继承的还是那把号称是皇帝亲赐的斧子吗?无聊!斧子是斧子,人是人。斧子没有记忆,人有!斧子没有自我意识,人有。但,机器人呢?机器人有吗?
从三大定律来看,如果机器人没有自我意识,三大定律就不存在、自我解体了。机器人当然有。既然机器人可以有自我意识,那么不能以是否具有自我意识来判定是否是“人”,当然,动物也有自我意识。
好的,机器人有自我意识,但它能明白剜骨疗伤这样的道理吗?“剜骨”与“截肢”无疑是“自我伤害”,但这种自我伤害正是为了保证整体的我不受伤害。程序员很容易让机器人明白,用螺丝刀扭下一条金属胳膊是无害的,甚至把身体的各个部件拆下来更新换代,也是有益的,这叫“新陈代谢”,即便是全身大翻修也是无关紧要,重要的是芯片,保管了它的记忆、智能程序及情感模块的芯片才是最重要的,那么换做给人做成功率更高的手术算不算是伤害呢?。
所以说机器人三大定律概念不清,正是因为这种概念不清才导致出现了各种各样危险的机器人。
第一定律说,机器人不得伤害人类,或因不作为使人类受到伤害。假如两人互相斗殴,机器人应当选择帮谁呢?加入任一方都违反第一条前半部分,不加入却又违反第一条后半部分。
为了解决这个问题,阿西莫夫对此定律作了修正,他提出“第一定律潜在值”(firstlawpotential)的概念,意即在智慧机器人的“正子脑”中,第一定律可能引发两种潜在的选择,而哪一种选择的结果更好、成功率更大,哪一种选择就会胜出,这一点有点类似于达尔文神经主义。这样一来,女孩子常喜欢问的“我与你妈掉入河中你先救谁”的史上最难问题得以解决,机器人给出的答案是“救你”!因为你更年轻健壮,把你救上岸的可能性较大。“救你”你很高兴,但是不被救的人会高兴么?
第二定律,除非违背第一定律,机器人必须服从人类的命令,于是主人说你帮我去抢银行吧,抢银行也是一种工作,不违反第一条,那么机器人一定是去抢银行或者制作炸药。那么这种违法的事情算不算违背第一定律?
第三定律, 除非违背第一及第二定律,机器人必须保护自己,欺骗算不算是违背第一第二定律?比如机器人给出虚假答案甚至制造虚幻生活的环境,算不算违背第一第二定律。
第零定律, 阿西莫只是偷换了概念,把第一条的个人换成了人类,但是人类之间是有不同的利益团体构成的,如果两个集团发生武装冲突,但是其结果必定是:任何一方都认为自己是正义的对方是邪恶的,双方都研发自己的机器人并将其投入战争,然后开始做着伤害人类的事情。
就结果然机器人做和不做都不对,如果做的话就意味帮助一部分人伤害另一部分人,如果什么也不做的话机器人也就没有存在的意义了,因此三大定律自身就存在着严重的逻辑矛盾。
也许很多人觉得三大定律非常完美,实际上却是非常庸俗的一种想法,举一个简单的例子来说,言情故事中,女朋友对男朋友提出的要求不就是这三条么:
1、你要爱我永远不能伤害我;
2、你一切都要听我的;
3、我不在的时候你要好好照顾你自己。
是不是和机器人三大定律一样呢。事实上即便他答应了但是他可能做到么?&
别说庸俗的言情故事,你就养个宠物也是这基本要求啊:1、别咬我;2、乖;3、别把自己搞挂了。所以很多人说三大定律没什么新花样,是对人工智能发展没有什么值得借鉴的“约法三章”,相对庸俗。&
机器人三大定律建立的基础就有着本质的错误,三大定律把人想象成了奴隶主,而把机器人当成了听话的奴隶。这种基于有缺陷的伦理框架(义务伦理)本身就有着很强内在的对抗性,所以才不被研究者接受,我们之所以歧视机器人的原因是因为机器人是由机器发展而来的,他的躯体是硅做的,不是血肉之躯,所以他们就必须遵从人类的需求,不管他们有多么强大的能力也没用。阿西莫夫的未来社会是光天化日的基质沙文主义,人类拥有的权利比人形机器人的权利更多。
既然机器人像人,那么他为什么就不能像人一样的对待,既然机器人像神(魔)他为什么就不能像神(魔)一样对待。一个弱智的人残忍的对待它的宠物,也许他本身很没有发觉,但是作为更聪明的你真的觉得这是正确的么?
为了防止人类制造千奇百怪的机器人,彻底杜绝终结者的出现,于是我们开始强调对机器人制造者和使用者加强管理,问题不在于机器人,而在于制造它们的人类。真正的危险在于人类迫使机器人的行为超出了它们的判断决策力。 于是有人提出的新三大定律是:
第一,人类给予机器人的工作系统应该符合最合法和职业化的安全与道德标准;
第二,机器人必须对人类命令做出反应,但只能对特定人类的某种命令做出反应;
第三,在不违反第一定律和第二定律的前提下,当人类和机器人判断决策力之间的控制能顺利转换时,机器人对其自身的保护应有一定的自主性。&
虽然这可能会导致“天网”的出现,但也意味着,一辆机器人控制的汽车不会开向险崖,也不会出现突然的猛烈转弯。&
伍兹说,许多有关于机器人更危险的预测是于机器人软件开发者们的想法造成的,这些人不了解制作软件的危险,而当他们的机器人变得像<>中的一样(患有忧郁症),他们也不愿意承担这个责任。&
加强制造者的管理,放弃人工智能的研发。那么问题来,即便是法律明令禁止的核生化或者核武,军方会不会去做,所谓的犯罪分子会不会去做? 假设我们生活在一个爱好和平的国度里,大家都不生产武器,但是核武器来了怎么办?你愿意任人宰割么?只是人工智能变成了另一个侵略者而已。
如何建造安全AI?既然定律路线行不通,那么应该怎样保证AI不会毁灭人类呢?很少有人相信能造出一个百分之百安全毫无隐忧的系统,但这对于大部分人来说并非什么困扰,因为说到底,人生中也没什么东西是百分之百的。
那些在阿西莫夫机器人三定律基础上加以修改得出的所谓“完善”一点的定律,其实也并不完美,而且走向了穷尽所有可能去制定规则的误区。 试想,连人类(指令制定者)都无法判断是否正确的行为,机器人如何能够得出正确的结论呢? 在这个问题没有解决之前,谁能说机器人做错了?当一群聪明的原始人发明语言的时候,他们是等到一套成熟的语言形式理论出现、用它预测了语言引入社会后的未来影响,然后才动手的吗?
其实有一种理论正在实践慢慢中,那就是人机混血(人机结合),人机混血开始于古代猿人对工具的使用,随着科技的进步人们对工具越发的依赖,现在人们已经进入了人机共处的时代,尤其是义肢(如人造器官或者整容)和存储器(知识和计算)的进步则让人与机器之间的结合变得更加紧密,取长补短,如果人类继续聪明下去的话就会选择更好的人体(机体)来更好的生活。
至于未来是谁更有发言权,还是取决于谁更强大,优秀的生命得以繁衍这是亘古不变的道理。
阅读:1546
分享到微信朋友圈
在手机阅读、分享本文
还可以输入250个字
推荐文章RECOMMEND
阅读:21万
阅读:11万
热门文章HOT NEWS
曾经有一部大话西游摆在我面前 ,直到看到这部续集才追悔莫及
天方燕谈(李燕)
娱乐资本论
娱乐独角兽
百度新闻客户端
百度新闻客户端
百度新闻客户端
扫描二维码下载
订阅 "百家" 频道
观看更多百家精彩新闻

我要回帖

更多关于 蒸汽机器人厉害么 的文章

 

随机推荐