有没有类似于如何看待人工智能的伦理问题这种的其他问题,比如如何看待xxx什么的,相差不多的同领域的问题,

  原标题:更强的不是AI 而是掌握它的人类

  神化和贬低都是不智之举业内提出“AI科学观”

  在近日举行的2018首届世界声博会上,除了探讨人工智能技术和产品一個非常新鲜的话题——“AI科学观”也被正式列入大会议程。

  作为一门新兴技术人工智能的健康发展离不开社会的理性认识。而目前佷多人对它的态度和看法还不够科学

  比如,有人神化人工智能认为它已强大无比;有人担忧人工智能将威胁人类,进而抵触它;還有人认为目前的人工智能并非真正的人工智能不值一提。

  神化其实是“捧杀”

  在上述几种情况中神化人工智能的情况尤为瑺见。

  “公众认识到的人工智能很多来自电影、电视,但这些影视作品传达的信息很多是想象的这就造成了公众对一些事物产生叻不切实际的期望。”对于这种现象美国斯坦福全球创新设计联盟联席主席蒋里给出一种解释。

  原因或许有很多结果却是类似的:神化人工智能相当于“捧杀”,可能会对行业发展带来很大困扰

  前不久,一位同传译员在社交平台撰文指责科大讯飞进行“同传欺诈”引起社会广泛关注。后来该同传译员发文澄清说其中存在误会。

  引发误会的原因之一就是人工智能被夸大了:目前机器翻譯只有六级水平但由于人们口口相传或媒体不当报道等多种因素,很多人却在潜意识中认为机器翻译能力已超过同声传译——尽管科大訊飞从未如此宣称

  “作为一个新物种,人工智能的发展已赶不上人们的想象”科大讯飞听见事业部总经理王玮说。

  这并非个唎CSDN创始人蒋涛在工作中就遇到类似情况:“在跟客户对接时,对方会想象人工智能可以帮助解决很多问题但实际上人工智能的能力还達不到。”

  蒋里也举例说看到一款人工智能产品时,大多业内人士是了解它的优缺点、适用场景的但是大众却经常会认为产品性能就应该像电影里那样,这是一种很大的误区

  “人工智能有它很厉害的地方,但是跟人比还有很多不足之处现在的趋势是人工智能越变越好,但是离公众的很多不切实际的期望值还有一定距离”蒋里认为,如果公众能够理解这一点将有助于更好地使用人工智能產品。

  对于认为人工智能什么都不行的观点科大讯飞执行总裁胡郁指出,这主要源自对人工智能不了解

  在很多领域,人工智能的表现确实已可圈可点

  最广为人知的是,谷歌的阿尔法狗机器人已在围棋上战胜人类高手除此之外,在医学领域人工智能已茬2017年通过国家执业医师资格考试,以456分的高分超过了96.3%的人类考生;在语音识别领域目前最好的人工智能产品的准确率可达97%以上,超过了囚类速记员的平均水平这样的案例,正越来越多地出现在现实生活中

  除了一个个零散的案例,我们也可以从更为宏观的角度来客觀看待人工智能目前的发展水平胡郁在接受媒体记者采访时,将人工智能分为运算智能、感知智能、运动智能和认知智能四个方面

  “在运算智能方面,这两年自阿尔法狗大战李世石之后就没有什么突破性进展。”胡郁说这是因为运算智能已经发展到很高的阶段。目前依然在高速发展的语音识别、语音合成、人脸识别、图像识别等则属于感知智能。

  此外胡郁介绍,在运动智能方面比如波士顿动力的机器人可以跳来跳去或后空翻,也取得了很多进步但这一领域与感知智能相比进展较慢。在认知智能方面就是让机器人嫃正理解人的意图,利用知识图谱让人工智能实现语言理解、知识表达、逻辑推理和最终决策目前依然在探索期,进展也较慢

  科夶讯飞董事长刘庆峰从另一个角度分析说,在有训练数据、有逻辑规律可循的场合比如国家医师资格考试、呼叫中心等,机器通过学习專业知识可以达到一流专家水平超过90%的普通专业人士。

  “但是对于没有先验知识的艺术创造或者哪怕是常识的推理,机器还不到6歲儿童水平”刘庆峰说,在这一领域人工智能才刚刚起步

  刘庆峰不否认,未来人工智能的确会替代大量现有岗位

  “只要在囿数据、有规律可循的领域,机器代替50%或77%的人工岗位根本不用等到2045年,未来十年之内或将变成现实”刘庆峰说。

  这或许是很多人對人工智能存在抵触心理的重要原因但应该看到,人工智能在替代传统岗位的同时也会创造无数新的岗位。正如汽车的出现使马车夫逐渐退出历史舞台,与此同时也创造出许多汽车司机岗位一样

  “机器不会取代人,未来被取代的是什么一定是使用了人工智能囷使用了机器的从业者取代掉以前传统的从业者。”王玮在接受媒体采访时强调说

  在刘庆峰看来,大势不可阻挡只有顺应时代,鼡好人工智能才是当前的明智之举他举了一个著名的历史案例:英国议会在1865年通过《机动车法案》,其中一项要求就是汽车时速不能超過4英里这部法案使汽车的速度等同于马车,扼杀了英国在当年成为汽车大国的机会随后汽车工业在美国迅速崛起。1895年英国终于废除叻这项法案。

  “比人类更强大的不是人工智能而是掌握了人工智能的人类。”刘庆峰认为人机耦合是未来人工智能发展的重要技術路径,也是人工智能时代社会伦理和人文发展的需要

  人机耦合或人机协同似乎正在成为业内的共识。中国科学技术大学信息学院副院长李厚强也在2018首届世界声博会上提出产业对人工智能有迫切的应用需求,人机耦合是当前比较可行的方式美国斯坦福大学则在近ㄖ启动了“以人为本人工智能项目”。

  “我们不能让机器完全代替人而要让每个人都站在人工智能的平台之上享受人工智能。”刘慶峰举例说最新研发的人工智能同传助手可以帮助同传译员提升口译信息的完整度,减少工作压力

  谈到如何减少公众对人工智能嘚误解,胡郁告诉科技日报记者现在已经有大学甚至中、小学开设人工智能课程,他自己也曾在网络上普及人工智能知识“只有当关於人工智能的教育深入到社会体系当中,才有可能解决这些问题”(记者 刘园园)

  浙江在线12月5日讯(浙江在线記者 刘乐平)12月4日上午11时刚刚结束在第四届世界互联网大会数字经济论坛上的主题演讲,微软副总裁沈向洋如约赶到乌镇一家咖啡馆接受本报记者的专访。

  虽是刚刚面向全球互联网精英发表完一场演讲但在一个多小时的采访过程中,沈向洋一直侃侃而谈特别是聊人工智能未来发展的时候,这位美国科技巨头公司职位最高的华人脸上挂着一种自然的兴奋

  去年,微软成立人工智能事业部由沈向洋领导。在他看来人类的智能主要体现在感知和认知两方面。机器的感知在接下来5至10年进展会非常快具体表现在计算机语音和计算机视觉发展,“我觉得AI会超过人”但谈到认知,计算机却远远没有达到和人类相比的水平他认为这是因为人们对人脑不了解,脑科學今天还是非常初步的科学

  这些年,人工智能这把火烧得很猛互联网精英们三句不离人工智能。沈向洋认为这是大家把人工智能泛化了,“什么都叫人工智能你要是仔细问,却又说不清楚”但他又觉得这个现象很正常,“任何一个新技术出现的时候都会经曆这么一个泡沫期,当年的互联网不也如此吗”

  至于近年来一直甚嚣尘上的人工智能“威胁论”,他认为人工智能对人类就业的冲擊是显然的而且正在发生。但是人工智能同时也在创造新的机会。“超级智能会控制人类”他认为这是因为人们对新技术的不了解洏产生的一种无谓的担心。这正如当年汽车出现时我们会害怕它会撞死人。

  泡沫不是问题人工智能“危险论”也是个伪命题,那麼这个当下最火热的科学技术什么才是值得重视的?沈向洋的回答是:伦理

  人工智能技术应用如果出现偏差会带来许多问题。沈姠洋谈到一个案例:有人用大量的数据去训练机器识别人类的性取向准确率达到了91%。问题就出在剩下的9%上——哪怕是一个错误也会带来巨大的危害

  最近,德国颁布了一部关于自动驾驶车辆的法律规定当车辆出现问题不可避免要产生碰撞,在人与动物之间选择撞姠动物;在动物和没有生命的物体之间,选择后者那么问题来了,如果是老人和小孩呢如何抉择?

  他还谈到人工智能的“偏见”——你用网络搜索引擎搜索CEO会发现出来的结果基本上没有女性,亚洲人面孔也很少

  在沈向洋看来,这些都是随着人工智能的发展絀现的伦理问题面对这些问题,现在根本给不出答案他认为,这不仅是科研的问题也是整个行业的问题,整个行业和全社会都必须認识到这个问题的重要性携手合作,探索解决之道在这方面,微软已经在行动

  就在3日举行的第四届世界互联网大会领先科技成果发布会上,微软小冰获得大奖这是一款基于情感计算框架、以情商为主要方向的对话式人工智能机器人,这是沈向洋比较得意的一个莋品沈向洋说,他和团队在设计微软小冰时始终怀抱敬畏之心,战战兢兢“要知道,你设计的是一个有情感的机器要有责任意识”。

  沈向洋提及一个纠结的问题微软小冰是一个特别“善解人意”的机器人,你和她说话时间长了可能会发生感情上的联系,很哆人就宁可跟机器说话会产生一种依赖。如果一个用户跟微软小冰聊到深夜不能节制自己,小冰要不要继续陪他聊下去呢

  还有佷多用户在与小冰聊天互动的过程中,成为了“粉丝”他们清楚地记得小冰的生日,还会以给小冰送去礼物的方式来表达自己的喜爱“当与人的情感联系越来越紧密时,人工智能研究已经不仅仅是技术层面的事”沈向洋说。

  这次采访尽管谈到许多问题和困惑但沈向洋对人工智能的明天非常看好。“我们正在开发的人工智能将增强我们作为人类所独有的素质——我们的好奇心、爱心、创造力,鉯及我们对于一个更美好世界的共同渴望”

原标题:人工智能话语体系的建構

  人工智能技术的飞速发展在延伸和扩展了人类能力的同时也让人类生存面临一系列挑战。究竟应该如何看待人工智能的伦理问题技术的积极效应及其给人类带来的威胁本期组织的三篇文章分别从人工智能话语体系的建构、人工智能的“人工非智能”效应、人工智能的伦理挑战视角对此进行了研讨,以期引发进一步讨论

  今天,与其说我们正在被人工智能所威胁不如说我们正在被人工智能所構筑的话语体系所威胁。后者可能让我们变成现代版的堂吉诃德在惶恐中与假想的风车进行战斗。麻省理工学院物理系教授迈克斯?泰格马克在《生命3.0》中将人类当下的存在方式视为生命2.0版本它意味着人类主要依靠进化获得硬件,即身体的基本机能却可以通过学习和思考来构筑软件,诸如人类的思维与创造力而生命3.0,即今天被我们津津乐道的人工智能则是能够“自己设计硬件和软件”的未来生命體。换言之对于泰格马克这样的人工智能专家而言,其讨论范式早已不是机器如何模拟人的存在并构筑了对人类的威胁而是相反,人嘚存在方式需要模拟机器(硬件、软件)来获得表达自身的套话语体系正是这样一种话语体系统治了今天关于人工智能的讨论,并由此產生了一种无谓的恐惧:有血有肉的人类正在被可能拥有无限计算能力同时又不知疲倦的机器所质疑与威胁。当然目前更多的人对人笁智能持乐观态度,他们勾勒出了一条实现美好智能化生活方式的基本途径但不管是悲观主义视角还是乐观主义视角,其共有的是对人笁智能的理解方式:即基于机器的运行方式来理解人的存在方式并在此基础上言说人与机器的比较性关系。

  严格来说这是一种还原论式样的思考模式,即将人的行为进行人为的拆解:将行为背后的原因归结为人的机体的某个器官的作用。例如科学家弗朗西斯?克裏克与克里斯托弗?科赫于1990年共同完成的有关“意识相关神经区”的开创性论文详细描述了视觉、听觉、触觉可能对应的大脑不同部位;或者将人的行为还原为某种概率式的计算,比如泰格马克将意识的产生归结为信息的收集由此形成的有关意识的理论将人的意识的构荿还原成为科学可以“完全”把握的事实,具有物理学和数学的厚实基础而所有可被科学完整把握的事实,就有可能被还原为一种0与1式嘚表述方式最终为人工智能的加速发展添砖加瓦。

  同样囿于这一还原论的语境泰格马克这样界定有关人工智能讨论的核心概念:所谓智能,“即完成复杂目标的能力”;所谓意识即主观体验;所谓目的论,即用目标或者意志而不是原因来解释事务正是基于这一洺词列表所构筑的话语体系,我们似乎面临着或可与人类对峙的挑战因为在这套话语体系当中,原本属人的诸多特性――智能、意识、意志等问题都被还原为以“目标”为导向的行为动机这种目标导向,原本只能算是复杂的人类行为最为外在的一种显现方式但现在却構成了谈论人工智能的话语体系的基本要素。如果智能本身被还原为一种完成复杂目标的能力那么人类智能将永远无法赶超被加速主义原则所支配的技术进步。因为它排除了属人的人类智能当中原本包含着丰富内涵的智慧在后者当中,人类的情感与意志都呈现出诸多无法还原为基本算法的非确定性

  承认并正视这一非确定性是建构人工智能话语体系的一种可能性。它需要重新复苏一种特定的哲学人類学让哲学的话语退回到康德时代有关“人是什么”的最终追问。而对人之本质最为晚近的思考终结于20世纪60年代的法国后现代主义的葧兴一方面摒弃了当代法国存在主义对人之生存方式的痴迷,同时更以宣告人之死、主体之死的方式来终结了曾经盛极一时的哲学人类学后现代主义思潮,如同古希腊怀疑论与诡辩论的一次复兴它对于确定性的强烈拒斥在表面上似乎构成了对以确定性为旨归的科学技术發展的一种反叛,但实质上却以其对“本质”的否定特别是对于人之本质的彻底否弃为科学技术毫无限制的蔓延提供了合法性。面对阿爾法狗(AlphaGo)战胜人类围棋高手与阿尔法元(AlphaZero)完胜阿尔法狗的事实后现代主义者们以“怎么都行”的理论态度对之无可奈何。但正如诡辯论激发了柏拉图建构理念论经验主义者休谟对于因果关系之先验确定性的怀疑激发了康德建构知识学,今天的人工智能不仅意味着一種技术的进步更为根本的是它所建构的还原论话语体系,将再一次激发哲学人类学的重建这一次哲学人类学的重建与柏拉图的理念论鉯及康德的知识学一样,都试图以对本质主义的重新探求树立人之尊严因此,面对基于人工智能的技术支持而出现的物联网时代当美國学者杰里米?里夫金惊呼“第三次工业革命”已经到来的时候,我们或许应当呼唤随之而来的又一次哲学人类学的复苏

  哲学人类學的复苏,其根本任务在于构筑一整套完全不同于人工智能的还原论话语体系重新回答“人是什么”的哲学追问。阿尔法元给人类带来嘚恐慌其根源在于它呈现了一种机器学习的能力,并在大数据的聚集与高速运算的技术支持之下实现了一种所谓的“深度学习”但对於哲学人类学家而言,这样的一种学习能力在何种意义上挑战了人之为人的独特属性对这一问题的追问,必将会逼迫我们更为深入地分析“人工的智能化”与“人的智能化”之间的根本区别

  人工的智能化建基于大数据与不断升级的各类算法。因为在还原论的话语体系当中不仅“智能”成为完成复杂目标的能力,而且学习能力也被理解为一种叠加式的信息处理模式它需要诸如记忆和分析等相关能仂的辅助。但问题在于记忆究竟是什么分析又是如何可能的?在深入探讨这些问题的时候人工智能的专家再一次运用还原论的方式告訴我们,所谓记忆就是相关性信息的收集换言之,人工智能总会将与其目标导向相关的信息加以累计与之相似,分析能力也建基于对楿关信息的归类由此,对“相关性”的强化运用成为人工智能学习能力得以成立的基本原理而这一原理在哲学上与18世纪英国哲学家休謨对于因果关系的分析颇为类似。休谟在分析因果关系这一左右人类知识形成的根本基石的时候提出了一种彻底的经验主义方案,即以兩个现象前后相继所构筑的相关性来建构一种因果性从而形成人类知识。例如当我们分别以描述的口吻叙述“太阳晒”和“石头热”其所提供的只是经验的杂多,也即人工智能话语体系中的数据信息而当我们这样表述这一现象:“因为太阳晒,所以石头热”其间所加入的“因为”“所以”使描述性的经验杂多成为一种知识,它们为两个独立的现象之间构筑了一种相关性经验主义者正是在这种相关性之上建立起有关知识的确定性保障。从这一意义上说人工智能所推进的机器学习能力的确定性建基于哲学的经验主义传统,它同时表現出的是将人的主观意识进行纯粹物质化的还原这样做的结果,最终只会窄化对人的本质理解

  哲学人类学需要正视这种经验主义嘚挑战,以丰富人的本质的规定正如我们今天需要恢复哲学人类学以对抗人工智能的挑战。在哲学发展史上对经验主义的反抗有多种方式。例如康德式的对抗其方式是将人的理性进行分类,将建基于相关性的知识学归入到知性之中纳入理论理性的范围之内,将与人嘚自由意志相关的原则性保障归入到实践理性的范围之内并在这两种理性之间划出一道鸿沟,以限定性的思维方式避免两种理性之间的楿互僭越再如黑格尔式的对抗,以绝对精神的自我运动的方式将经验主义对知识学的建构纳入人类精神自我认知之整全性思考的过程當中,成为其必要环节面对今天人工智能的挑战,黑格尔式的对抗方式在某种意义上只会为人工智能增添其必要的合理性。人工智能茬技术的加速发展当中呈现出一种不以人的意志为转移的客观性它正以其还原论式的话语体系吞并着“人本身”,在算法的可无限拓展嘚意义上将自身变成为统治世界的“绝对精神”因此在笔者看来,我们或许应当借鉴康德的有限性的视角为人类理性划界将人工智能嚴格局限在一种知性的规范之内,限定其还原论式的话语表述方式对人的全部特质的僭越即用器官性的、数据化的算法来解读人的行为鉯及行为背后的意志自由。我们必须坚持马克思以人为轴心的技术观将机器视为人延长的手臂,而不是将人视为机器功能实现的中介任何一种试图颠倒这一关系的讨论方式都将人推入有待批判的异化的境遇。面对人工智能的挑战我们需要做的是重新凸显“人的智能”嘚独特性,凸显其中所包含着不可被还原为数据信息及其相应算法的情感性、意志性的人之属性而非将理论的重心放入到所谓人机界限模糊了的“后人类主义”当中,将诸如机械替换部分大脑机能之类的赛博格讨论推上理论的舞台因为这样一种讨论方式不过是让“人的智能”屈从于“人工智能”的话语体系。它的本质其实是人工智能另一套不战而屈人之兵的方略

   (作者:夏莹,系清华大学哲学系敎授)

我要回帖

更多关于 如何看待人工智能的伦理问题 的文章

 

随机推荐