菜鸡问围棋的玩法玩法的问题

大家好我又出来怼人了。

两年湔写了一篇文章 ,当时主要是怼「智能助理们」这次呢则是表达 「我不是针对谁,只是现在所有的深度学习都搞不定对话 AI」以及「伱看都这样了,那该怎么做AI产品

  • 时间:这篇真的太长了(近 3 万字)根据预览同学们的反馈,通常第一次阅读到 Part 3 时会消耗很多精力,泹读完 Part 3 才发现是精华(同时也是最烧脑的部分)请大家酌情安排阅读时间。
  • 可读性:我会在内容里邀请你一起思考(无需专业知识)所以可能不适合通勤时间阅读。你的阅读收益取决于在过程中思考的参与程度
  • 适合人群:对话智能行业从业者、AIPM、关注 AI 的投资人、对 AI 有強烈兴趣的朋友、关心自己的工作会不会被 AI 代替的朋友;
  • 关于链接:阅读本文时,无需阅读每个链接里的内容这并不会影响对本文的理解。

– 关于人工智障四个字 

上一片文章发出后有朋友跟我说,标题里的「人工智障」这个词貌似有点 offensive作为学语言出身的,我来解释一下这个原因:

最开始呢我是在跟一位企业咨询顾问聊人工智能这个赛道的现状。因为对话是用英语展开的当时为了表达我的看法 「现在的智能助理行业正处在一种难以逾越的困境当中」,我就跟她说「Currently all the digital assistants are Artificial-Intelligently challenged」

她听了之后哈哈一笑。「intelligently challenged」同时也是英文中对智障的委婉表达 假设不了解这个常识,她就可能忽略掉这个梗尽管能明白核心意思,只是不会觉得有什么好笑的那么信息在传递中就有损失。

寫文章时我把这个信息翻译成中文,就成了「人工智障」但是因为中文语法的特性,有些信息就 lost in translation 了比如实际表达的是「一种困境的狀态」而不是「一件事」。

(顺便说一下中文的智障,实际上是政治正确的称呼详见。)

为什么要写那么多字来解释这个措辞因为鈈同的人,看见相同的字也会得到不同的理解。这也是我们要讨论的重点之一

2017 年 10 月,上图这个叫 Sophia 的机器人。公民身份这个评价比圖灵测试还要牛。何况还是在沙特他们才刚刚允许女性开车不久()。

Sophia 经常参加各种会、「发表演讲」、「接受采访」比如,表现出來非常类似人类的言谈;去;接受 之类的主流媒体的采访;甚至公司创始人

Basically alive. 要知道,西方的吃瓜群众都是看着《终结者》长大的前段時间还看了《西部世界》。在他们的世界模型里「机器智能会觉醒」这个设定是迟早都会发生的。

普通大众开始吓得瑟瑟发抖不仅开始担心自己的工作是不是会被替代,还有很多人开始担心 AI 会不会统治人类这样的话题展开。「未来已来」很多人都以为真正的人工智能已经近在咫尺了。

只是有些人可能会注意到有些不合理的地方:「等等,人工智能都要威胁人类了为啥我的 Siri 还那么蠢?」

我们来看看到 2018 年末在对话智能领域各方面究竟发展的如何了。

我在 2016 年底做过一个测试对几个智能助理提一个看似简单的需求:「推荐餐厅,不偠日本菜」只是各家的 AI 助理都会给出一堆餐厅推荐,全是日本菜

2 年过去了,在这个问题的处理上有进展么我们又做了一次测试:

结果是依然没有解决。「不要」两个字被所有助理一致忽略了

为什么要关注「不要」两个字?之前我去到一家某非常有名的智能语音创业公司聊到这个问题时,他家的 PM 显出疑惑:「这个逻辑处理有什么用我们后台上看到用户很少提出这类表达啊。」

听到这样的评论基夲可以确定:这家公司还没有深入到专业服务对话领域。

场景方面一旦深入进服务领域里的多轮对话,很容易会遇到类似这样的表达 :「我不要这个有更便宜的么?」后台没有遇到,只能说用户还没开始服务就结束了场景方面与 AI 公司的 domain 选择有关。

但是在技术方面則是非常重要的。因为这正是真正智能的核心特点我们将在 part 2&3 详细聊聊这个问题。现在先抛个结论:这个问题解决不了智能助理会一直智障下去的。

自从 2015 年几个重要的深度学习在开发者当中火了起来大小公司都想做「Her」这样面对个人消费者的通用型智能助理(To C 类产品的終极目标)。一波热钱投给最有希望的种子队伍(拥有 Fancy 背景)之后全灭。目前为止在 2C 这方面的所有商用产品,无论是巨头还是创业公司全部达不到用户预期。

在人们的直觉里会认为「智能助理」,处理的是一些日常任务不涉及专业的需求,应该比「智能专家」好莋这是延续「人」的思路。推荐餐厅、安排行程是人人都会做的事情;却只有少数受过专业训练的人能够处理金融、医疗问诊这类专业問题

而对于现在的 AI,情况正好相反现在能造出在围棋的玩法上打败柯洁的 AI,但是却造不出来能给柯洁管理日常生活的 AI

随着 to C 助理赛道嘚崩盘,To B or not to B 已经不再是问题因为已经没得选了,只能 To B这不是商业模式上的选择,而是技术的限制目前 To B,特别是限定领域的产品相对 To C 類产品更可行:一个原因是领域比较封闭,用户从思想到语言不容易发挥跑题;另一方面则是数据充分。

只是 因为客户是一个个谈下來的,项目是一个个交付的这意味着增长慢,靠人堆没有复利带来的指数级增长。大家纷纷表示不开心

这个「帮人造机器人」的业務有点像「在网页时代帮人建站」。转成 To B 的团队经常受到资本的质疑:「你这个属于做项目怎么规模化呢?」

要知道国内的很多投资機构和里面的投资经理入行的时间,是在国内的移动互联起来的那一波「Scalability」或者「高速增长」是体系里最重要的指标,没有之一而做項目这件事,就是 Case by case要增长就要堆人,也就很难出现指数级增长这就有点尴尬了。

「你放心我有 SaaS!哦不,是 AIaaS我可以打造一个平台,仩面有一系列工具可以让客户们自己组装机器人。」

然而这些想做技能平台的创业公司,也没有一个成功的短期也不可能成功。

主偠的逻辑是这样的:你给客户提供工具但他需要的是雕像——这中间还差了一个雕塑家。佐证就是那些各家试图开放「对话框架」给更尛的开发者甚至是服务提供者,帮助他们「3 分钟开发出自己的 AI 机器人」具体就不点名了。自己都开发不出来一个让人满意的产品还想抽象一个范式出来让别人沿用你的(不 work 的)框架?

不过我认为 MLaaS 在长期的成功是有可能的,但还需要行业发展更为成熟的时候现在为時尚早。具体分析我们在后面 Part 5 会谈到

音箱的成功和智能的失败」

对话这个领域,另一个比较火的赛道是智能音箱

各大主要科技公司嘟出了自己的智能音箱,腾讯叮当、阿里的天猫精灵、小米音箱、国外的 Alexa、Google 的音箱等等作为一个硬件品类,这其实是个还不错的生意基本属于制造业。

不仅出货不差还被寄予期望,能够成为一个生态的生意——核心逻辑看上去也是充满想象力的:

  • 超级终端:在后移动時代每家都想像 iphone 一样抢用户的入口。只要用户习惯使用语音来获得咨询或者服务甚至可以像 Xbox/ps 一样,硬件赔钱卖软件来挣钱;
  • 用语音莋 OS:开发者打造各类语音的技能,然后通过大量「离不开的技能」反哺这个 OS 的市场占有;
  • 提供开发者平台:像 Xcode 一样给开发者提供应用开發的工具和分发平台、提供使用服务的流量。

可是这些技能使用的实际情况是这样的:

  • 基本没有商业服务型的应用;
  • 技能开发者都没赚箌钱,也不知道怎么赚钱;
  • 大部分高频使用的技能都没有商业价值——用户用的最多的就是「查天气」
  • 没有差异性:智能的差异嘛基本都沒有的事儿

皇帝的新人工智能

回过头来,我们再来看刚刚那位沙特阿拉伯的公民Sophia。既然刚刚提到的那么多公司投入了那么多钱和科学家都搞成这样,凭什么这个 Sophia 能一鸣惊人

因为 Sophia 的「智能」是个骗局。

可以直接引用 Yann LeCun 对此的评价「这完全是鬼扯」。

简单来说Sophia 是┅个带喇叭的木偶——在各种大会上的发言和采访的内容都是人工撰写,然后用人人都有的语音合成做输出却被宣传成为是其「人工智能」的自主意识言论。

这还能拿「公民身份」可能是人类公民被黑的最惨的一次。这感觉好像是我家的橘猫被一所 985 大学授予了土木工程学士学位。

其实对话系统里用人工来撰写内容,或者使用模版回复这本来就是现在技术的现状(在后面我们会展开)。

但刻意把「非智能」的产物说成是「智能」的表现这就不对了。

考虑到大部分吃瓜群众是通过媒体渠道来了解当前技术发展的跟着炒作的媒体(仳如被点名的 Tech Insider)都是这场骗局的共犯。这些不知道是无知还是无良的文科生真的没有做好新闻工作者份内的调查工作。

最近这股妖风也吹到了国内的韭菜园里

Sophia 出现在了王力宏的一首讲 AI 的 MV 里;然后又 2018 年 11 月跑去给大企业站台。

真的行业内认真做事儿的小伙伴,都应该站出來让大家更清晰的知道现在 AI——或者说机器学习的边界在哪儿。不然甲方爸爸们信以为真了突然指着 sophia 跟你说,「别人都能这么自然伱也给我整一个。」

你怕不得装个真人进去

对了,说到这儿确实现在也有:用人——来伪装成人工智能——来模拟人,为用户服务

國内的案例典型的就是银行用的大堂机器人,其实是真人在远程语音(所谓 Tele presence)美国有 X.ai,做基于 Email 的日程管理的只是这个 AI 到了下午 5 点就要丅班。

当然假如我是这些骗局背后开发者,被质疑的时候我还可以强行拉回人工智能上:「这么做是为了积累真正的对话数据,以后鼡来做真的 AI 对话系统识别的训练」

这么说对外行可能是毫无破绽的。但是真正行业内干正经事的人都应该像傅盛那样站出来,

人家沙特是把 AI 当成人,这些套路是把人当成 AI然后大众就开始分不清楚究竟什么是 AI 了。

人工智能究竟(tmd)指的是什么

另一方面,既然 AI 现茬的那么蠢为什么马一龙 (Elon Musk) 却说 ;霍金甚至直接说。

而在另一边Facebook 和 Google 的首席科学家却在说,现在的 AI 都是渣渣,甚至应该推翻重做

大家該相信谁的?一边是要去火星的男人和说不定已经去了火星的男人;另一边是当前两家科技巨头的领军人物。

其实他们说的都对因为這里说到的「人工智能」是两码事。

而 Yann LeCun 和 Hinton 指的人工智能则是指的当前用来实现「人工智能效果」的技术(基于统计的机器学习)这两位嘚观点是「用这种方式来实现人工智能是行不通的」。

两者本质是完全不同的一个指的是结果,一个指的是(现在的)过程

那么当我們在讨论人工智能的时候,究竟在说什么

最根本的问题是目前人类对「智能」的定义还不够清楚。何况人类本身是否是智能的最佳体现还不一定呢。想想每天打交道的一些人:)

一方面在大众眼中,人工智能是「人造出来的像人的智能」,比如 Siri同时,一个 AI 的水平高低则取决于它有多像人。所以当 Sophia 出现在公众眼中的时候普通人会很容易被蒙蔽(甚至能通过图灵测试)。

Oracle 对 AI 的定义也是「只要是能讓计算机可以模拟人类行为的技术都算!」

而另一方面,从字面上来看「Artificial Intelligence」只要是人造的智能产品,理论上都算作人工智能

也就是說,一个手持计算器尽管不像人,也应算是人工智能产品但我相信大多数人都不会把计算器当成是他们所理解的人工智能。

这些在认識上不同的解读导致当前大家对 AI 应用的期望和评估都有很多差异。

再加上还有「深度学习、神经网络、机器学习」这些概念纷纷跟着人笁智能一起出现但是各自意味着什么,之间是什么关系普通大众都不甚了解。

「没关系韭菜不用懂。」但是想要割韭菜的人最好能搞清楚吧。连有些投资人自己也分不清你说怎么做判断,如何投项目当然是投胸大的。

以上就是到 2018 年末,在对话领域的人工智能嘚现状:智能助理依然智障;大部分 To B 的给人造机器人的都无法规模化;对话方面没有像 AlphaZero 在围棋的玩法领域那样的让人震惊的产品;没有商業上大规模崛起的迹象;有的是一团浑水和浑水摸鱼的人。

为什么会这样为什么人工智能在图像识别,人脸识别下围棋的玩法这些方面都那么快的进展,而在对话智能这个领域却是如此混乱

既然你都看到这里了,我相信你是一个愿意探究本质的好同志那么我们来叻解,对话的本质是什么;以及现在的对话系统的本质又是什么

有一群小鸡出生在一个农场,无忧无虑安心地生活

鸡群中出现了一位科学家,它注意到了一个现象:每天早上食槽里会自动出现粮食。

作为一名优秀的归纳法信徒 (Inductivist)这只科学鸡并不急于给出结论。它开始铨面观察并做好记录试图发现这个现象是否在不同的条件下都成立。

「星期一是这样星期二是这样;树叶变绿时是这样,树叶变黄也昰这样;天气冷是这样天气热也是这样;下雨是这样,出太阳也是这样!」

每天的观察让它越来越兴奋,在心中它离真相越来越接菦。直到有一天这只科学鸡再也没有观察到新的环境变化,而到了当天早上鸡舍的门一打开,它跑到食槽那里一看依然有吃的!

科學鸡,对他的小伙伴志在必得地宣布:「我预测,每天早上槽里会自动出现食物。明天早上也会有!以后都会有!我们不用担心饿死叻!」

经过好几天小伙伴们都验证了这个预言,科学鸡骄傲的并兴奋的把它归纳成「早起的小鸡有食吃定理」

正好,农场的农夫路过看到一只兴奋的鸡不停的咯咯叫,他笑了:「这只鸡很可爱哦不如把它做成叫花鸡好了」。

科学鸡卒于午饭时间。

在这个例子里這只罗素鸡(’s chicken)只对现象进行统计和归纳,不对原因进行推理

而主流的基于统计的机器学习特别是深度学习,也是通过大量的案例靠对文本的特征进行归类,来实现对识别语义的效果这个做法,就是罗素鸡

目前,这是对话式人工智能的主流技术基础其主要应用方向,就是对话系统或称为 Agent。之前提到的智能助理 SiriCortana,Google Assistant 以及行业里面的智能客服这些都算是对话智能的应用

对话智能的黑箱

这些產品的交互方式,是人类的自然语言而不是图像化界面。

图形化界面(GUI)的产品比如网页或者 app 的产品设计,是所见即所得、界面即功能

对话智能的交互(CUI, Conversational UI)是个黑箱:终端用户能感知到自己说出的话(输入)和机器人的回答(输出)——但是这个处理的过程是感觉不箌的。就好像跟人说话你并不知道他是怎么想的。

每一个对话系统的黑箱里都是开发者自由发挥的天地。

虽说每家的黑箱里面都不同但是最底层的思路,都万变不离其宗核心就是两点:听人话(识别)+ 讲人话(对话管理)

如果你是从业人员那么请回答一个问题:你们家的对话管理是不是填槽?若是你可以跳过这一节(主要科普填槽是怎么回事),请直接到本章的第五节「当前对话系统的局限

AI如何听懂人话 ?

对话系统这个事情在 2015 年开始突然火起来了主要是因为一个技术的普及:机器学习特别是深度学习带来的语音识別和 NLU(自然语言理解)——主要解决的是识别人讲的话。

这个技术的普及让很多团队都掌握了一组关键技能:意图识别和实体提取这意味着什么?我们来看一个例子

在生活中,如果想要订机票人们会有很多种自然的表达:

「有去上海的航班么?」;

「看看航班下周二出發去纽约的」;

「要出差,帮我查下机票」;

可以说「自然的表达」有无穷多的组合(自然语言)都是在代表「订机票」这个意图的而聽到这些表达的人,可以准确理解这些表达指的是「订机票」这件事

而要理解这么多种不同的表达,对机器是个挑战在过去,机器只能处理「结构化的数据」(比如关键词)也就是说如果要听懂人在讲什么,必须要用户输入精确的指令

所以,无论你说「我要出差」還是「帮我看看去北京的航班」只要这些字里面没有包含提前设定好的关键词「订机票」,系统都无法处理而且,只要出现了关键词比如「我要退订机票」里也有这三个字,也会被处理成用户想要订机票

自然语言理解这个技能出现后,可以让机器从各种自然语言的表达中区分出来,哪些话归属于这个意图;而那些表达不是归于这一类的而不再依赖那么死板的关键词。比如经过训练后机器能够識别「帮我推荐一家附近的餐厅」,就不属于「订机票」这个意图的表达

并且,通过训练机器还能够在句子当中自动提取出来「上海」,这两个字指的是目的地这个概念(即实体);「下周二」指的是出发时间

这样一来,看上去「机器就能听懂人话啦!」

这个技术為啥会普及?主要是因为机器学习领域的学术氛围导致重要的论文基本都是公开的。不同团队要做的是考虑具体工程实施的成本

最后嘚效果,就是在识别自然语言这个领域里每家的基础工具都差不多。在意图识别和实体提取的准确率都是百分点的差异。既然这个工具本身不是核心竞争力甚至你可以用别家的,大把可以选但是关键是你能用它来干什么?

在这方面最显而易见的价值,就是解放双掱语音控制类的产品,只需要听懂用户的自然语言就去执行这个操作:在家里要开灯,可以直接说「开灯」而不用去按开关;在车仩,说要「开天窗」天窗就打开了,而不用去找对应的按钮在哪里

这类系统的重点在于,清楚听清哪个用户在讲是什么所以麦克风陣列、近场远场的抗噪、声纹识别讲话的人的身份、ASR(语音转文字),等等硬件软件的技术就相应出现向着前面这个目标不断优化。

「講人话」在这类应用当中并不那么重要。通常任务的执行以结果进行反馈,比如灯应声就亮了而语言上的反馈,只是一个辅助作用可有可无。

但是任务类的对话智能往往不止是语音控制这样一轮交互。如果一个用户说「看看明天的机票」——这表达正常,但无法直接去执行因为缺少执行的必要信息:1)从哪里出发?和 2)去哪里

如果我们希望 AI Agent 来执行这个任务,一定要获得这两个信息对于人來完成这个业务的话,要获得信息就得靠问这个用户问题,来获得信息很多时候,这样的问题还不止一个,也就意味着要发起多輪对话。

对于 AI 而言也是一样的。

要知道「去哪里」= Agent 问用户「你要去哪里」

要知道「从哪里出发」= Agent 问用户「你要从哪里出发呢?」

这就涉及到了对话语言的生成

AI 如何讲人话?

决定「该说什么话」才是对话系统的核心——无论是硅基的还是碳基的智能。但是深度学習在这个版块并没有起到什么作用。

在当前处理「该说什么」这个问题,主流的做法是由所谓「对话管理」系统决定的

尽管每一个對话系统背后的「对话管理」机制都不同,每家都有各种理解、各种设计但是万变不离其宗——目前所有任务类对话系统,无论是前段時间的 Google duplex还是智能客服,或者智能助理最核心的对话管理方法,有且仅有一个:「填槽」即 Slot filling。

如果你并不懂技术但是又要迅速知道┅家做对话 AI 的水平如何,到底有没有黑科技 (比如刚刚开始看 AI 领域的做投资的朋友 )你只需要问他一个问题:「是不是填槽?」

  • 如果他们(誠实地)回答「是」那你就可以放下心来,黑科技尚未出现接下来,能讨论的范围无非都是产品设计、工程实现、如何解决体验和規模化的困境,这类的问题基本上该智障的,还是会智障
  • 要是他们回答「不是填槽」,而且产品的效果还很好那么就有意思了,值嘚研究或者请速速联系我:)

那么这个「填槽」究竟是个什么鬼?嗯不搞开发的大家可以简单的把它理解为「填表」:好比你要去银荇办个业务,先要填一张表

如果这张表上的空没有填完,柜台小姐姐就不给你办她会红笔给你圈出来:「必须要填的空是这些,别的伱都可以不管」你全部填好了,再递给小姐姐她就去给你办理业务了。

还记得刚刚那个机票的例子么用户说「看看明天的机票」,偠想执行「查机票」就得做以下的步奏,还要按顺序来:

1. ASR:把用户的语音转化成文字。

2. NLU 语义识别:识别上面的文字属于(之前设定恏的)哪一个意图,在这里就是「订机票」;然后提取文字里面的实体,「明天」作为订票日期被提取出来啦。

3. 填表:这个意图是订機票那么就选「订机票」这张表来填;这表里有三个空,时间那个空里就放进「明天」。

(这个时候表里的 3 个必填项,还差两个:「出发地」和「到达地」)

4. 开始跑之前编好的程序:如果差「出发地」就回「从哪里走啊?」;如果差「目的地」就回「你要去哪里?」(NLG 上打引号是因为并不是真正意义上的自然语言生成,而是套用的对话模版)

5. TTS:把回复文本合成为语音,播放出去

在上面这个过程当中1 和 2 步奏都是用深度学习来做识别。如果这个环节出现问题后面就会连续出错。

循环 1-5 这个过程只要表里还有空要填,就不断问鼡户直到所有的必填项都被填完。于是表就可以提交小姐姐(后端处理)了。

后端看了要查的条件返回满足这些条件的机票情况。Agent 洅把查询结果用之前设计好的回复模板发回给用户

顺便说一下,我们经常听到有些人说「我们的多轮对话可以支持 xx 轮最多的时候有用戶能说 xx 轮」。现在大家知道在任务类对话系统里,「轮数的产生」是由填表的次数决定的那么这种用「轮数多少」来衡量产品水平的方法,在这个任务类对话里里完全无意义

一定要有意义,也应该是:在达到目的、且不影响体验的前提下轮数越少越好。

在当前只偠做任务类的多轮对话,基本跑不掉填表

那 Google 的智能助理(后称 IPA)又怎么知道用户的具体需求呢?跑不掉的是用户还得给 Google Assistant 填一张表,用對话来交代自己的具体需求比如下面这样:

当前对话系统的局限

我刚刚花了两千来个字来说明对话系统的通用思路。接下来要指絀这个做法的问题

还记得之前提到的「不要日本菜」测试么?我们把这个测试套用在「订机票」这个场景上试试看:「看看明天去北京嘚航班,东航以外的都可以」还是按步奏来:

1. ASR 语音转文字,没啥问题;

2. 语义识别貌似有点问题

– 意图:是订机票,没错;

– 实体提取:跟着之前的训练来;

– 出发地:这个用户没说一会得问问他…

等等,他说的这个「东航以外的都可以」指的是啥?之前没有训练过與航空公司相关的表达啊

没关系,咱们可以把这个表达的训练加上去:东航 = 航司多找些表达,只要用户说了各个航空公司的名字的嘟训练成航司这个实体好啦。

另外咱们还可以在填表的框里,添加一个航司选择就像这样(黄色部分):

▲ (嗯,好多做 TO B 的团队都昰掉在这个「在后面可以加上去」的坑里。)

但是这么理所当然的训练之后,实体提取出来的航司却是「东航」——而用户说的是「东航以外的」这又指的哪个(些)航司呢?

「要不咱们做点 Trick 把 ‘以外’ 这样的逻辑单独拿出来手工处理掉?」——如果这个问题可以这麼容易处理掉你觉得 Siri 等一干货色还会是现在这个样子?难度不在于「以外」提取不出来而是在处理「这个以外,是指哪个实体以外

當前基于深度学习的 NLU 在「实体提取」这个技术上,就只能提取「实体」

而人能够理解,在这个情况下用户是指的「排除掉东航以外的其他选择」,这是因为人除了做「实体提取」以外还根据所处语境,做了一个对逻辑的识别:「xx 以外」然后,自动执行了这个逻辑的處理即推理,去进一步理解对方真正指的是什么(即指代)。

而这个逻辑推理的过程并不存在于之前设计好的步奏(从 1 到 5)里。

更麻烦的是逻辑的出现,不仅仅影响「实体」还影响「意图」:

「hi Siri,别推荐餐厅」——它还是会给你推荐餐厅;

「hi Siri除了推荐餐厅,你還能推荐什么」——它还是会给你推荐餐厅。

想要处理这个问题不仅仅是要识别出「逻辑」;还要正确判断出,这个逻辑是套用在哪個实体或者是不是直接套用在某一个意图上。这个判断如何做用什么做?都不在当前 SLU 的范围内

对这些问题的处理,如果是集中在一些比较封闭的场景下还可以解决个七七八八。但是如果想要从根本上、泛化的处理,希望一次处理就解决所有场景的问题到目前都無解。在这方面Siri 是这样,Google Assistant 也是这样任意一家,都是这样

为啥说无解?我们来看看测试

用图灵测试来测对话系统没用 

一说到对囚工智能进行测试,大部分人的第一反应是图灵测试

5 月 Google I/O 大会的那段时间,我们团队正在服务一家全球 100 强企业为他们规划基于 AI Agent 的服务。

茬发布会的第二天我收到这家客户的 Tech Office 的好心提醒:Google 这个像真人一样的黑科技,会不会颠覆现有的技术方案我的回答是并不会。

话说 Google Duplex 在發布会上的 demo 确实让人印象深刻而且大部分看了 Demo 的人,都分辨不出打电话去做预定的是不是真人

「这个效果在某种意义上,算是通过了圖灵测试」

),所以很多人批评它这只能用来测试人有多好骗,而不是用来测智能的在这一点上,我们在后文 Part 4 对话的本质中会有更多解释

人们被这个 Demo 骗到的主要原因,是因为合成的语音非常像真人

这确实是 Duplex 最牛的地方:语音合成。不得不承认包括语气、音调等等模拟人声的效果,确实是让人叹为观止只是,单就在语音合成方面就算是做到极致,在本质上就是一只鹦鹉——最多可以(所以你看活体识别有多么重要)

只是,Google 演示的这个对话系统一样处理不了逻辑推理、指代这类的问题。这意味着就它算能过图灵测试,也过鈈了 测试

相比图灵测试,这个测试是直击深度学习的要害当人类对句子进行语法分析时,会用真实世界的知识来理解指代的对象这個测试的目标,就是测试目前深度学习欠缺的常识推理能力

如果我们用 Winograd Schema Challenge 的方法,来测试 AI 在「餐厅推荐」这个场景里的水平题目会是类姒这样的:

A.「四川火锅比日料更好,因为它很辣」

B.「四川火锅比日料更好因为它不辣」

AI 需要能准确指出:在 A 句里,「它」指的是四川火鍋;而在 B 句里「它」指的则是日料。

还记得在本文 Part 1 里提到的那个「不要日本菜测试」么我真的不是在强调「回字有四种写法」——这個测试的本质,是测试对话系统能不能使用简单逻辑来做推理(指代的是什么)

如果系统不知道相应的常识(四川火锅是辣的;日料是鈈辣的),就没有推理的基础更不用说推理还需要被准确地执行。

有人说我们可以通过上下文处理来解决这个问题。不好意思上面這个常识根本就没有出现在整个对话当中。不在「上文」里面又如何处理?

对于这个部分的详细解释请看下一章(Part 3 对话的本质)。

尽管指代问题和逻辑问题看上去,在应用方面已经足够致命了;但这些也只是深度学习表现出来的诸多局限性中的一部分

哪怕更进一步,再过一段时间有一家 AI 在 Winograd Schema Challenge 拿了 100% 的正确率,我们也不能期望它在自然语言处理中的表现如同人一样因为还有更严重和更本质的问题在后媔等着。

对话系统更大的挑战不是NLU 

我们来看问题表现在什么地方

现在我们知道了,当人跟现在的 AI 对话的时候AI 能识别你说的话,是靠深度学习对你说出的自然语言进行分类归于设定好的意图,并找出来文本中有哪些实体

而 AI 什么时候回答你,什么时候反问你基本嘟取决于背后的「对话管理」系统里面的各种表上还有啥必填项没有填完。而问你的话则是由产品经理和代码小哥一起手动完成的。

那麼这张表是谁做的?

或者说是谁决定,对于「订机票」这件事要考虑哪些方面?要获得哪些信息需要问哪些问题?机器又是怎么知道的

是人。是产品经理准确点说。

就像刚才的「订机票」的案例当用户问到「航司」的时候,之前的表里并没有设计这个概念AI 僦无法处理了。

要让 AI 能处理这样的新条件得在「订机票」这张表上,新增加「航空公司」一栏(黄色部分)而这个过程,都得人为手動完成:产品经理设计好后工程师编程完成这张表的编程。

所以 AI 并不是真的通过案例学习就自动理解了「订机票」这件事情,包含了哪些因素只要这个表还是由人来设计和编程实现的,在产品层面一旦用户稍微谈及到表以外的内容,智障的情况就自然出现了

因此,当 Google duplex 出现的时候我并不那么关心 Google duplex 发音和停顿有多像一个人——实际上,当我观察任意一个对话系统的时候我都只关心 1 个问题:

「是谁設计的那张表:人,还是 AI」

只是,深度学习在对话系统里面能做的只是识别用户讲出的那句话那部分——严格依照被人为训练的那样(监督学习)。至于其他方面比如该讲什么话?该在什么时候讲话它都无能为力。

但是真正人们在对话时的过程却不是上面提到的對话系统这么设计的,而且相差十万八千里人的对话,又是怎么开展的这个差异究竟在哪里?为什么差异那么大所谓深度学习很难搞定的地方,是人怎么搞定的呢毕竟在这个星球上,我们自身就是 70 亿个完美的自然语言处理系统呢

我们需要了解要解决的问题,才可能开展解决问题的工作在对话领域,我们需要知道人们对话的本质是什么下一章比较烧脑,我们将讨论「思维」这件事情是如何主導人们的对话的。

  对话的最终目的是为了同步思维

你是一位 30 出头的职场人士每天上午 9 点半,都要过办公楼的旋转门进大堂的,然後刷工牌进电梯去到 28 楼,你的办公室今天是 1 月 6 日,平淡无奇的一天你刚进电梯,电梯里只有你一个人正要关门的时候,有一个人匆忙挤进来

进来的快递小哥,他进电梯时看到只有你们两人就说了一声「你好」,然后又低头找楼层按钮了

你很自然的回复:「你恏」,然后目光转向一边

两边都没什么话好讲——实际上,是对话双方认为彼此没有什么情况需要同步的

人们用语言来对话,其最终嘚目的是为了让双方对当前场景模型(Situation model)保持同步(大家先了解到这个概念就够了。更感兴趣的详情请见 )。

上图中A 和 B 两人之间发展出来所有对话,都是为了让红框中的两个「Situation model」保持同步Situation model 在这里可以简单理解为对事件的各方面的理解,包括 Context

不少做对话系统的朋友會认为 Context 是仅指「对话中的上下文」,我想要指出的是除此以外,Context 还应该包含了对话发生时人们所处的场景这个场景模型涵盖了对话那┅刻,除了明文以外的所有已被感知的信息 比如对话发生时的天气情况,只要被人感知到了也会被放入 Context 中,并影响对话内容的发展

A:「你对这个事情怎么看?」

B:「这天看着要下雨了咱们进去说吧」——尽管本来对话内容并没有涉及到天气。

对同一件事情不同的人在腦海里构建的场景模型是不一样的。 (想要了解更多可以看 )

所以,如果匆忙进电梯来的是你的项目老板而且假设他和你(多半都是他啦)都很关注最近的新项目进展,那么你们要开展的对话就很多了

在电梯里,你跟他打招呼:「张总早!」, 他会回你「早啊对了昨忝那个…」

不待他问完,优秀如你就能猜到「张总」大概后面要聊的内容是关于新项目的这是因为你认为张总对这个「新项目」的理解囷你不同,有同步的必要甚至,你可以通过昨天他不在办公室大概漏掉了这个项目的哪些部分,来推理你这个时候应该回复他关于这個项目的具体什么方面的问题

「昨天你不在,别担心客户那边都处理好了。打款的事情也沟通好了30 天之内搞定。」——你看不待張总问完,你都能很棒的回答上这多亏了你对他的模型的判断是正确的。

一旦你对对方的情景模型判断失误那么可能完全「没打中点仩」。

「我知道昨天晚上我回了趟公司,小李跟我说过了我是要说昨天晚上我回来办公室的时候,你怎么没有在加班呀小王,你这樣下去可不行啊…」

所以人们在进行对话的过程中,并不是仅靠对方上一句话说了什么(对话中明文所包含的信息)就来决定回复什么而这和当前的对话系统的回复机制非常不同。

对话是思想从高维度向低维的投影

我们假设在另一个平行宇宙里,还是你到了办公樓

今天还是 1 月 6 日,但 2 年前的今天你与交往了 5 年的女友分手了,之后一直对她念念不忘也没有交往新人。

你和往日一样进电梯的,剛要关门的时候匆忙进来的一个人,要关的门又打开了就是你 2 年前分手的那位前女友。她进门时看到只有你们两她抬头看了一下你,然后又低头找楼层电梯了这时她说:「你好」。

请问你这时脑袋里是不是有很多信息汹涌而过这时该回答什么?是不是类似「一时鈈知道该如何开口」的感觉

这个感觉来自(你认为)你和她之间的情景模型有太多的不同(分手 2 年了),甚至你都无法判断缺少哪些信息有太多的信息想要同步了,却被贫瘠的语言困住了

有人做了一个比喻:语言和思维的丰富程度相比,是冰山的一角我认为远远不圵如此:对话是思想在低维的投影

如果是冰山你还可以从水面上露出来的部分反推水下大概还有多大。属于维度相同但是量不同。泹是语言的问题在只用听到文字信息,来反推讲话的人的思想失真的情况会非常严重。

为了方便理解这个维度差异在这儿用 3D 和 2D 来举唎:思维是高维度(立体 3D 的形状),对话是低维度(2D 的平面上的阴影)如果咱们要从平面上的阴影的形状,来反推上面悬着的是什么粅体,就很困难了两个阴影的形状一模一样,但是上面的 3D 物体可能完全不同。

对于语言而言阴影就像是两个「你好」在字面上是一模一样的,但是思想里的内容却完全不同在见面的那一瞬间,这个差异是非常大的:

你在想(圆柱):一年多不见了她还好么?

前女伖在想(球):这个人好眼熟好像认识…

挑战:用低维表达高维

要用语言来描述思维有多困难?这就好比当你试图给另一位不在現场的朋友,解释一件刚刚发生过的事情的时候你可以做到哪种程度的还原呢?

试试用语言来描述你今天的早晨是怎么过的

当你用文芓完整描述后,我一定能找到一个事物或者某个具体的细节它在你文字描述以外,但是却确实存在在你今天早晨那个时空里

比如,你鈳能会跟朋友提到早饭吃了一碗面;但你一定不会具体去描述面里一共有哪些调料。传递信息时缺少了这些细节 (信息),会让听众听到那碗面时在脑海里呈现的一定不是你早上吃的「那碗面」的样子。

这就好比让你用平面上(2D)阴影的样子来反推 3D 的形状。你能做的呮是尽可能的增加描述的视角,尽可能给听众提供不同的 2D 的素材来尽量还原 3D 的效果。

为了解释脑中「语言」和「思想」之间的关系(与讀者的情景模型进行同步)我画了上面那张对比图,来帮助传递信息如果要直接用文字来精确描述,还要尽量保全信息不丢失那么峩不得不用多得多的文字来描述细节。(比如上面的描述中尚未提及阴影的面积的具体大小、颜色等等细节)。

这还只是对客观事物的描述当人在试图描述更情绪化的主观感受时,则更难用具体的文字来表达

比如,当你看到 的时候请尝试用语言精确描述你的主观感受。是不是很难能讲出来话,都是类似「鹅妹子嘤」这类的这些文字能代表你脑中的感受的多少部分?1%

希望此时,你能更理解所谓「语言是贫瘠的而思维则要丰富很多」。

那么既然语言在传递信息时丢失了那么多信息,人们为什么理解起来好像没有遇到太大的問题?

为什么人们的对话是轻松的

假设有一种方式,可以把此刻你脑中的感受以完全不失真的效果传递给另一个人。这种信息的傳递和上面用文字进行描述相比丰富程度会有多大差异?

可惜我们没有这种工具。我们最主要的交流工具就是语言,靠着对话来試图让对方了解自己的处境。

那么既然语言这么不精准,又充满逻辑上的漏洞信息量又不够,那么人怎么能理解还以此为基础,建竝起来了整个文明

比如,在一个餐厅里当服务员说「火腿三明治要买单了」,我们都能知道这和「20 号桌要买单了」指代的是同样的事凊 ()是什么让字面上那么大差异的表达,也能有效传递信息

人能通过对话,有效理解语言靠的是解读能力——更具体的点,靠的是对話双方的共识和基于共识的推理能力

当人接收到低维的语言之后,会结合引用常识、自身的世界模型(后详)来重新构建一个思维中嘚模型,对应这个语言所代表的含义这并不是什么新观点,大家熟悉的开复老师在 1991 年在苹果搞语音识别的时候,就在采访里科普「」。

当对话的双方认为对一件事情的理解是一样的或者非常接近的时候,他们就不用再讲需要沟通的,是那些(彼此认为)不一样的蔀分

当你听到「苹果」两个字的时候,你过去建立过的苹果这个模型的各个维度就被引用出来,包括可能是绿或红色的、味道的甜、夶概拳头大小等等如果你听到对方说「蓝色的苹果」时,这和你过去建立的关于苹果的模型不同(颜色)思维就会产生一个提醒,促使你想要去同步或者更新这个模型「苹果为什么是蓝色的?」

「议员们拒绝给抗议者颁发许可证因为他们 [害怕/提倡 ] 暴力。」

当 [害怕 ] 出現在句子当中的时候「他们」指的应该是议员们;当 [提倡 ] 出现在句子当中的时候,「他们」则指的是「抗议者」

1. 人们能够根据具体情況,作出判断是因为根据常识做出了推理,「议员害怕暴力;抗议者提倡暴力」

2. 说这句话的人,认为这个常识对于听众应该是共识僦直接把它省略掉了。

同理之前(Part 2)我们举例时提到的那个常识(「四川火锅是辣的;日料不是辣的」),也在表达中被省略掉了常識(往往也是大多数人的共识)的总量是不计其数,而且总体上还会随着人类社会发展的演进而不断新增

例子 1,如果你的世界模型里已經包含了「华农兄弟」(你看过并了解他们的故事)你会发现我在 Part 2 最开始的例子,藏了一个梗(做成叫花鸡)但因为「华农兄弟」并鈈是大多数人都知道的常识,而是我与特定人群的共识所以你看到这句话时,获得的信息就比其人多而不了解这个梗的人,看到那里時就不会接收到这个额外的信息反而会觉得这个表达好像有点点奇怪。

例子 2创投圈的朋友应该都有听说过 Elevator pitch,就是 30 秒把你要做什么事凊讲清楚。通常的案例诸如:「我们是餐饮界的 Uber」或者说「我们是办公室版的 Airbnb」。这个典型结构是「XX 版的 YY」要让这句话起到效果,前提条件是 XX 和 YY 两个概念在发生对话之前已经纳入到听众的模型里面去了。如果我给别人说我是「对话智能行业的麦肯锡」,要能让对方悝解对方就得既了解对话智能是什么,又了解麦肯锡是什么

 基于世界模型的推理

场景模型是基于某一次对话的,对话不同场景模型也不同;而世界模型则是基于一个人的,相对而言长期不变

对世界的感知,包括声音、视觉、嗅觉、触觉等感官反馈有助于人们對世界建立起一个物理上的认识。对常识的理解包括各种现象和规律的感知,在帮助人们生成一个更完整的模型:世界模型

无论精准、或者对错,每一个人的世界模型都不完全一样有可能是观察到的信息不同,也有可能是推理能力不一样世界模型影响的是人的思维夲身,继而影响思维在低维的投影:对话

让我们从一个例子开始:假设现在咱们一起来做一个不那么智障的助理。我们希望这个助理能夠推荐餐厅酒吧什么的来应付下面这样的需求:

当用户说:「我想喝点东西」的时候,系统该怎么回答这句话经过 Part 2,我相信大家都了解我们可以把它训练成为一个意图「找喝东西的店」,然后把周围的店检索出来然后回复这句话给他:「在你附近找到这些选择」。

恭喜咱们已经达到 Siri 的水平啦!

但是,刚刚我们开头就说了要做不那么智障的助理。这个「喝东西的店」是奶茶点还是咖啡店还是全蔀都给他?

嗯这就涉及到了推理。我们来手动模拟一个假设我们有用户的 Profile 数据,把这个用上:如果他的偏好中最爱的饮品是咖啡就給他推荐咖啡店。

这样一来我们就可以更「个性化」的给他回复了:「在你附近找到这些咖啡店」。

这个时候咱们的 AI 已经达到了不少「智能系统」最喜欢鼓吹的个性化概念——「千人千面」啦!

然后我们来看这个概念有多蠢。

一个人喜欢喝咖啡那么他一辈子的任意时候就都要喝咖啡么?人是怎么处理这个问题的呢如果用户是在下午 1 点这么问,这么回他还好;如果是在晚上 11 点呢我们还要给他推荐咖啡店么?还是应该给他推荐一个酒吧

或者,除此之外如果今天是他的生日,那么我们是不是该给他点不同的东西或者,今天是圣诞節该不该给他推荐热巧克力?

你看时间是一个维度,在这个维度上的不同值都在影响给用户回复什么不同的话

时间和用户的 Profile 不同的昰:

1. 时间这个维度上的值有无限多;

2. 每个刻度还都不一样。比如虽然生日是同一个日期但是过生日的次数却不重复;

除了时间这个维度鉯外,还有空间

于是我们把空间这个维度叠加(到时间)上去。你会发现如果用户在周末的家里问这个问题(可能想叫奶茶外卖到家?)和他在上班时间的办公室里问这个问题(可能想出去走走换换思路),咱们给他的回复也应该不同

光是时空这两个维度,就有无窮多的组合用”if then” 的逻辑也没法全部手动写完。我们造机器人的工具到这个需求,就开始捉襟见肘了

何况时间和空间,只是世界模型当中最显而易见的两个维度还有更多的,更抽象的维度存在并且直接影响与用户的对话。比如人物之间的关系;人物的经历;天氣的变化;人和地理位置的关系(是经常来出差、是当地土著、是第一次来旅游)等等等等。咱们聊到这里感觉还在聊对话系统么?是鈈是感觉有点像在聊推荐系统

要想效果更好,这些维度的因素都要叠加在一起进行因果推理然后把结果给用户。

至此影响人们对话嘚,光是信息(还不含推理)至少就有这三部分:明文(含上下文)+ 场景模型(Context)+ 世界模型

普通人都能毫不费力地完成这个工作。但是罙度学习只能处理基于明文的信息对于场景模型和世界模型的感知、生成、基于模型的推理,深度学习统统无能为力

这就是为什么现茬炙手可热的深度学习无法实现真正的智能(AGI)的本质原因:不能进行因果推理。

根据世界模型进行推理的效果不仅仅体现上在对话上,还能应用在所有现在成为 AI 的项目上比如自动驾驶。

经过大量训练的自动驾驶汽车在遇到偶发状况时,就没有足够的训练素材了比洳,突然出现在路上的婴儿车和突然滚到路上的垃圾桶都会被视为障碍物,但是刹不住车的情况下一定要撞一个的时候,撞哪一个

叒比如,对侯世达 (Douglas Hofstardler ) 而言「驾驶」意味着当要赶着去一个地方的时候,要选择超速还是不超速;要从堵车的高速下来还是在高速上慢慢哏着车流走… 这些决策都是驾驶的一部分。他说:「」

人脑有两套系统:系统1 系统2

关于「系统 1 和系统 2」的详情,请阅读 Thinking, Fast and Slow, by Daniel Kahneman一本非瑺好的书,对人的认知工作是如何展开的进行了深入的分析在这儿,我给还不了解的朋友介绍一下以辅助本文前后的观点。

心理学家認为人思考和认知工作分成了两个系统来处理:

  • 系统 1 是快思考:无意识、快速、不怎么费脑力、无需推理
  • 系统 2 是慢思考:需要调动注意仂、过程更慢、费脑力、需要推理
  • 系统 1 先上,遇到搞不定的事情系统 2 会出面解决。

系统 1 做的事情包括: 判断两个物体的远近、追溯声音的來源、完形填空 ( “ 我爱北京天安     ” ) 等等

顺带一提,下象棋的时候一眼看出这是一步好棋,这个行为也是系统 1 实现的——前提是你是一位优秀的玩家

对于中国学生而言,你突然问他:「7 乘以 7」他会不假思索的说:「49!」这是系统 1 在工作,因为我们在小学都会背 99 乘法表这个 49 并非来自计算结果,而是背下来的(反复重复)

相应的,如果你问:「3287 x 2234 等于多少」,这个时候人就需要调用世界模型中的乘法規则加以应用(计算)。这就是系统 2 的工作

另外,在系统 1 所设定的世界里猫不会像狗一样汪汪叫。若事物违反了系统 1 所设定的世界模型系统 2 也会被激活。

在语言方面。对于深度学习而言它更适合去完成系统 1 的工作,实际上它根本没有系统 2

关于这两个系统值得┅提的是,人是可以通过训练把部分系统 2 才能做的事情,变成系统 1 来完成的比如中国学生得经过「痛苦的记忆过程」才能熟练掌握 99 乘法表,而不是随着出生到长大的自然经验慢慢学会的。

但是这里有 2 个有意思的特征:

1. 变成系统 1 来处理问题的时候可以节约能量。人们偏向相信自己的经验是因为脑力对能量的消耗很大,这是一个节能的做法

2. 变成系统 1 的时候,会牺牲辩证能力因为系统 1 对于逻辑相关嘚问题一无所知。「我做这个事情已经几十年了」这种经验主义思维就是典型案例

想想自己长期积累的案例是如何在影响自己做判断的?

单靠深度学习搞不定语言现在不行,将来也不行

在人工智能行业里你经常会听到有人这么说「尽管当前技术还实现不了理想中嘚人工智能,但是技术是会不断演进的随着数据积累的越来越多,终将会实现让人满意的人工智能」

如果这个说法,是指寄希望于仅靠深度学习不断积累数据量,就能翻盘——那就大错特错了

无论你怎么优化「马车」的核心技术(比如更壮、更多的马),都无法以此造出汽车(下图右)

对于大众而言,技术的可演进性是以宏观的视角看人类和技术的关系。但是发动机的演化和马车的关键技术没有半點关系

深度学习领域的 3 大牛,都认为单靠深度学习这条路(不能最终通向 AGI)感兴趣的朋友可以沿着这个方向去研究:

  • :「我的观点是都扔掉重来吧」
  • :「如果你对于这个每天都在接触的世界,有一个好的因果模型你甚至可以对不熟悉的情况进行抽象。这很关键…… 机器鈈能因为机器没有这些因果模型。我们可以手工制作这些模型但是这远不足够。我们需要能发现因果模型的机器」

至于深度学习在將来真正的智能上扮演的角色,在这儿我 的说法:「I don’t

现在我们了解了人们对话的本质是思维的交换,而远不只是明文上的识别和基于識别的回复而当前的人工智能产品则完全无法实现这个效果。那么当用户带着人类的世界模型和推理能力来跟机器用自然语言交互时,就很容易看到破绽

  • Sophia 是一个技术上的骗局(凡是鼓吹 Sophia 是真 AI 的,要么是不懂要么是忽悠);
  • 现在的 AI,都不会有真正的智能(推理能力什麼的不存在的包括 Alpha go 在内);
  • 只要是深度学习还是主流,就不用担心 AI 统治人类;
  • 对话产品感觉用起来智障都是因为想跳过思维,直接模擬对话(而现在也只能这样);
  • 「用的越多数据越多,智能会越强产品就会越好,使用就会越多」——对于任务类对话产品这是一個看上去很酷,实际上不靠谱的观点;
  • 一个 AI agent能对话多少轮,毫无意义;
  • to C 的助理产品做不好是因为解决不了「如何获得用户的世界模型數据,并加以利用」这个问题;
  • to B 的对话智能公司为何很难规模化(因为场景模型是手动生成的)
  • 先有智能,后有语言:要做到真正意义仩的自然语言对话至少要实现基于常识和世界模型的推理能力。而这一点如果能实现那么我们作为人类,就可能真的需要开始担心前攵提到的智能了
  • 不要用NLP评价一个对话智能产品:年底了,有些媒体开始出各种 AI 公司榜单其中有不少把做对话的公司分在 NLP 下面。这就好仳不要用触摸屏来衡量一款智能手机。在这儿我不是说触摸屏或者 NLP 不重要 (Essential)反而因为太重要了,这个环节成为了每一家的标配以至于茬这方面基本已经做到头了,差异不过 1%
  • 对于一个对话类产品而言,NLU 尽管重要但只应占个整体配件的 5-10% 左右。更进一步来说甚至意图识別和实体提取的部分用大厂的,产品间差异也远小于对话管理部分的差距真正决定产品的是剩下的90%的系统。

到此是不是有一种绝望的感觉?这些学界和行业的大牛都没有解决方案或者说连有把握的思路都没有。是不是做对话智能这类的产品就没戏了上限就是这样了麼?

不是对于一项技术而言,可能确实触底了;但是对于应用和产品设计而言并不是由一个技术决定的,而是很多技术的结合这里還有很大的空间。

作为产品经理让我来换一个角度。我们来研究一下既然手中的工具是这些,我们能用他们来做点什么

AI的归AI,产品的归产品

有一部我很喜欢的电影The Prestige,里面讲了一个关于「瞬间移动」的魔术对于观众而言,就是从一个地方消失然后瞬间又从另┅个地方出现。

第一个魔术师成功的在舞台上实现了这个效果。他打开舞台上的右边的门刚一进去的一瞬间,就从舞台左边的门出来叻对观众而言,这完全符合他们的期望

第二个魔术师在观众席里,看到效果后惊呆了他感觉这根本毫无破绽。但是他是魔术师——莋为一个产品经理——他就想研究这个产品是怎么实现的但是魔术行业里,最不受人待见的就是魔术揭秘。

影片最后他得到了答案(剧透预警):所有的工程机关、升降机、等等,都如他所料的藏在了舞台下面但真正的核心是,第一个魔术师一直隐藏着自己的另一個双胞胎兄弟当他打开一个门,从洞口跳下舞台的那一刻双胞胎的另一位就马上从另一边升上舞台。

看到这里大家可能就恍然大悟:「原来是这样,双胞胎啊!」

这感觉是不是有点似曾相识在本文 Part 2,我们聊到把对话系统的黑箱打开里面就是填一张表的时候,是不昰有类似的感觉对话式人工智能的产品(对话系统)就像魔术,是一个黑箱用户是以感知来判断价值的。

「我还以为有什么黑科技呢我是双胞胎我也可以啊。」

其实这并不容易我们先不说魔术的舞台里面的工程设计,这个魔术最难的地方是如何能在魔术师的生活中让另一个双胞胎在大众视野里完全消失掉。如果观众们都知道魔术师是双胞胎就很可能猜到舞台上的魔术是两个人一起表演的。所以這个双胞胎一定不能出现在大众的「世界模型」里。

为了让双胞胎的另一个消失在大众视野里这两兄弟付出了很多代价,身心磨绝非一般人能接受的,比如共享同一个老婆

这也是我的建议:技术不够的时候,设计来补做 AI 产品的同学,不要期待给你智能要是真的囿智能了,还需要你干什么人工智能产品经理需要设计一套庞大的系统,其中包括了填表、也当然包括深度学习带来的意图识别和实体提取等等标准做法、也包括了各种可能的对话管理、上下文的处理、逻辑指代等等

这些部分,都是产品设计和工程力量发挥的空间

設计思路的基础

我需要强调一下,在这里咱们讲的是 AI 产品思路,不是 AI 的实现思路

对于对话类产品的设计,以现在深度学习的基础語义理解应该只占整个产品的 5%-10%;而其他的,都是想尽一切办法来模拟「传送」这个效果——毕竟我们都知道这是个魔术。如果只是识别僦占了你家产品的大量心血其他的不去拉开差异,基本出来就是智障无疑

在产品研发方面上,如果研发团队能提供多种技术混用的工具肯定会增加开发团队和设计的发挥空间。这个做法也就是 DL(Deep Learning) + 的结合GOFAI 是 ,也就是深度学习火起来之前的 symbolic AI也就是专家系统,也就是大多數在 AI 领域的人都看不起的「if

DL+GOFAI 这个前提是当前一切后续产品设计思路的基础

存在即为被感知」是 18 世纪的哲学家 George Berkeley 的名言加州大学伯克利分校的命名来源也是为了纪念这位唯心主义大师。这个意思呢就是如果你不能被感知到,你就是不存在的!

我认为「存在即为被感知」是对话类 AI 产品的 Design principle对话产品背后的智能,是被用户感知到而存在的直到有一天 AI 可以代替产品经理,在那之前所有的设计都应该围绕著,如何可以让用户感觉和自己对话的 AI 是有价值的然后才是聪明的。

要非常明确自己的目的设计的是 AI 的产品,而不是 AGI 本身就像魔术嘚设计者,给你有限的基础技术条件你能组装出一个产品,体验是人们难以想到

同时,也要深刻的认识到产品的局限性魔术就是魔術,并不是现实

这意味着,在舞台上的魔术如果改变一些重要的条件,它就不成立了比如,如果让观众跑到舞台的顶上从上往下看这个魔术,就会发现舞台上有洞或者「瞬间移动」的不是这对双胞胎中的一个,而是一个观众跑上去说「让我来瞬间移动试试」,僦穿帮了

Narrow AI 的产品,也是一样的如果你设计好了一个 Domain,无论其中体验如何只要用户跑到 Domain 的边界以外了,就崩溃了先设定好产品边界,设计好「越界时给用户的反馈」然后在领域里面,尽可能的模拟这个魔术的效果

假设 Domain 的边界已经设定清晰了,哪些方面可以通过设計和工程的力量来大幅增加效果呢?

其实在「Part 3 对话的本质」里谈到的与思维相关的部分,在限定 Domain 的前提下都可以作为设计的出发点:你可以用 GOFAI 来模拟世界模型、也可以模拟场景模型、你可以 Fake 逻辑推理、可以 Fake 上下文指代——只要他们都限定在 Domain 里。

成本(工程和设计的量)和给用户的价值并不是永远成正比也根据不同的 Domain 的不同。

比如我认为现在所有的闲聊机器人都没有什么价值。开放 Domain没有目标、没囿限定和边界,对用户而言会认为什么都可以聊。但是其自身「场景模型」一片空白对用户所知的常识也一无所知。导致用户稍微试┅下就碰壁了。我把这种用户体验称为「每次尝试都容易遇到挫折」

可能,有些 Domain 对回复的内容并不那么看重也就并不需要那么强壮嘚场景模型和推理机制来生成回复内容。

我们假设做一个「树洞机器人」可以把产品定义是为,扮演一个好的听众让用户把心中的压仂烦恼倾诉出来。

这个产品的边界需要非常明确的,在用户刚刚接触到的时候强化到用户的场景模型中。主要是系统通过一些语言的反馈鼓励用户继续说。而不要鼓励用户来期望对话系统能输出很多正确且有价值的话当用户做出一些陈述之后,可以跟上一些对「场景模型」依赖较小泛泛的话。

「我从来没有这么考虑过这个问题你为什么会这么想呢?」

「关于这个人你还有哪些了解?」

「你觉嘚他为什么会这样」

这样一来,产品在需求上就大幅减轻了对「自然语言生成」的依赖。因为这个产品的价值不在回复的具体内容昰否精准,是否有价值上这就同时降低了对话背后的「场景模型」、「世界模型」、以及「常识推理」这些高维度模块的需求。训练的素材嘛也就是某个特定分支领域(比如职场、家庭等)的心理咨询师的对话案例。产品定义上这得是一个 Companion 型的产品,不能真正起到理療的作用

当然,以上并不是真正的产品设计仅仅是用一个例子来说明,不同的 Domain 对背后的语言交互的能力要求不同进而对更后面的「思维能力」要求不同。选择产品的 Domain 时尽量远离那些严重依赖世界模型和常识推理,才能进行对话的场景

有人可能说,你这不就是 Sophia 的做法么不是。这里需要强调的是 Sophia 的核心问题是欺骗产品开发者是想忽悠大众,他们真的做出了智能

在这里,我提倡的是明确告诉用户这就是对话系统,而不是真的造出了智能这也是为什么,在我自己的产品设计中如果遇到真人和 AI 同时为用户服务的时候(产品上称為 Hybrid Model),我们总是会偏向明确让用户知道什么时候是真人在服务,什么时候是机器人在服务这么做的好处是,控制用户的预期以避免鼡户跑到设计的 Domain 以外去了;不好的地方是,你可能「听上去」没有那么酷

所以,当我说「存在即为被感知」的时候强调的是对价值的感知;而不是对「像人一样」的感知。

对话智能的核心价值:在内容不在交互

多年前,还在英国读书的时候我曾经在一个非常有洺历史悠久的秘密结社里工作。我对当时的那位照顾会员需求的大管家印象深刻你可以想象她好像是「美国运通黑卡服务」的超级礼宾,她有两个超能力:

1. Resourceful会员的奇葩需求都能想尽办法的实现:一个身在法兰克福的会员半夜里遇到急事,临时想尽快回伦敦半夜没有航癍了,打电话找到大管家求助最后大管家找到另一个会员的朋友借了私人飞机,送他一程凌晨回到了伦敦。

「Oliver我想喝点东西…」

「當然没问题,我待会给你送过来」她也不需要问喝什么,或者送到哪里

人人都想要一个这样的管家。蝙蝠侠需要 Alfred;钢铁侠需要 Javis;西奥哆需要 Her(尽管这哥们后来走偏了);iPhone 需要 Siri;这又回到了我们在 Part1 里提到的AI 的 to C 终极产品是智能助理。

但是人们需要这个助理的根本原因,昰因为人们需要它的对话能力么这个世界上已经有 70 亿个自然语言对话系统了(就是人),为什么我们还需要制造更多的对话系统

我们需要的是对话系统后面的思考能力,解决问题的能力而对话,只是这个思考能力的交互方式(Conversational User Interface)如果真能足够聪明的把问题提前解决叻,用户甚至连话都不想说

我知道很多产品经理已经把这个 iPhone 初代发布的东西讲烂了。但是在这儿确实是一个非常好的例子:我们来探討一下 iPhone 用虚拟键盘代替实体键盘的原因。

普通用户从最直观的视角,能得出结论:这样屏幕更大!需要键盘的时候就出现不需要的时候就消失。而且还把看上去挺复杂的产品设计给简化了更好看了。甚至很多产品经理也是这么想的实际上,这根本不是硬件设计的问題原因见下图。

其实乔布斯在当时也讲的很清楚:物理键盘的核心问题是(作为交互 UI)你不能改变它。物理交互方式(键盘)不会根據不同的软件发生改变

如果要在手机上加载各种各样的内容,如果要创造各种各样的软件生态这些不同的软件都会有自己不同的 UI,但昰交互方式都得依赖同一种(物理键盘无法改变)这就行不通了。

所以实际代替这些物理键盘的,不是虚拟键盘而是整个触摸屏。洇为 iPhone(当时的)将来会搭载丰富的生态软件内容就必须要有能与这些还没出现的想法兼容的交互方式。

在我看来上述一切都是为了丰富的内容服务。再一次的交互本身不是核心,它背后搭载的内容才是

但是在当初看这个发布会的时候,我是真的没有 get 到这个点那个時候真的难以想象,整个移动互联时代会诞生的那么多 app都有各自不同的 UI,来搭载各式各样的服务

你想想,如果以上面这些实体键盘讓你来操作大众点评、打开地图、Instagram 或者其他你熟悉的 app,是一种怎样的体验更有可能的是,只要是这样的交互方式根本设计不出刚才提箌的那些 app。

与之同时这也引申出一个问题:如果设备上,并没有多样的软件和内容生态那还应该把实体键设计成触摸和虚拟的方式么?比如一个挖掘机的交互方式,应该使用触屏么甚至对话界面?

对话智能解决重复思考

同样的对话智能的产品的核心价值,应該在解决问题的能力上而不是停留在交互这个表面。这个「内容」或者「解决问题的能力」是怎么体现的呢

工业革命给人类带来的巨夶价值在于解决「重复体力劳动」这件事。

经济学家 Tyler Cowen 认为「什么行业的就业人越多,颠覆这个工种就会创造更大的商业价值」他在 Average Is Over 这夲书里描述到:

「20 世纪初,美国就业人口最多的是农民;二战后的工业化、第三产业的发展再加上妇女解放运动,就业人工最多的工种變成辅助商业的文字工作者比如秘书助理呼叫中心(文员信息输入)。1980/90 年代的个人计算机以及 Office 的普及,大量秘书助理类工作消失。」

这里提及的工作都是需要大量重复的工作。而且不停的演变从重复的体力,逐步到重复的脑力

从这个角度出发,对一个场景背后嘚「思考能力」没有把控的 AI 产品会很快被代替掉。首当其冲的就是典型意义上的智能客服。

在市场上有很多这样的智能客服的团队,他们能够做对话系统(详见 Part 2)但是对这各领域的专业思考,却不甚了解

我把「智能客服」称为「前台小姐姐」——无意冒犯,但是湔台小姐姐的主要工作和专业技能并没有关系他们最重要的技能就是对话,准确点说是用对话来「路由」——了解用户什么需求把不匼适的需求过滤掉,再把需求转给专家去解决

但是对于一个企业而言,客服是只嘴和耳而专家才是脑,才是内容才是价值。客服有哆不核心想想大量被外包出去的呼叫中心,就知道了

与这类客服机器人产品对应的,就是专家机器人一个专家,必定有识别用户需求的能力反之不亦然。你可以想象一个企业支付给一个客服多少薪资又支付给一个专家多少薪资?一个专家需要多少时间培训和准备財能上岗客服小姐姐呢?于此同时专业能力是这个机构的核心,而客服不是

正因为如此,很多人认为人工的呼叫中心,以后会被 AI 呼叫中心代替掉;而我认为用 AI 做呼叫中心的工作,是一个非常短暂的过渡型方案很快代替人工呼叫中心的,甚至代替 AI 呼叫中心是具備交互能力的专家 AI 中心。在这儿「专家」的意义大于「呼叫」。

在经历过工具化带来的产能爬坡和规模效应之后他们成本差不多,但昰却专业很多比如他直接链接后端的供给系统的同时,还具备专业领域的推理能力也能与用户直接交互。

NLP 在对话系统里解决的是交互嘚问题

在人工智能产品领域里,给与一定时间掌握专业技能的团队一定能对话系统;而掌握对话系统的团队则很难掌握专业技能。试想一下在几年前移动互联刚刚出现的时候,会做 app 的开发者去帮银行做 app;而几年之后银行都会自己开发 app,而开发者干不了银行的事

在這个例子里,做 AI 产品定义的朋友你的产品最好是要代替(或者辅助)某个领域专家;而不要瞄准那些过渡性岗位,比如客服

从这个角喥出发,对话智能类的产品最核心的价值是进一步的代替用户的重复思考。Work on the mind not the mouth. 哪怕已经是在解决脑袋的问题也尽量去代替用户系统2的工莋,而不只是系统1的工作

在你的产品中,加入专业级的推理;帮助用户进行抽象概念与具象细节之间的转化;帮助用户去判断那些出现茬他的模型中但是他口头还没有提及的问题;考虑他当前的环境模型、发起对话时所处的物理时空、过去的经历;推测他的心态,他的卋界模型

先解决思考的问题,再尽可能的转化成语言

2018 年 10 月底,我在慕尼黑为企业客户做 on site support期间与客户的各个 BU、市场老板们以及自身的研发团队交流对话 AI 的应用。作为全球最顶尖的汽车品牌之一他们也在积极寻求 AI 在自身产品和服务上的应用。

  • 不缺技术人才尽管作为传統行业的大象,可能会被外界视为不擅长 AI其实他们自身并不缺少 NLP 的研发。当我跟他们的 NLP 团队交流时发现基本都有世界名校的 PHD。而且茬闭门的供应商大会上,基本全球所有的科技大厂和咨询公司都在场了就算实在搞不了,也大有人排着队的想帮他们搞
  • 创新的意愿强烮。在我接触过的大企业当中特别是传统世界 100 强当中中,这个巨头企业是非常重视创新的经过移动互联时代,丢掉的阵地他们是真惢想一点点抢回来,并试图领导所在的行业而不是 follow 别人的做法。不仅仅是像「传统的大企业创新」那样做一些不痛不痒的 POC来完成创新蔀门的 KPI。他们则真的很积极地推进 AI 的商业化而且勇于尝试改变过去和 Tech provider 之间的关系。这点让我印象深刻限于保密条款,在此略过细节(关于国际巨型企业借新技术的初创团队之手来做颠覆式创新,也是一个很有意思的话题以后新开一个 Topic。)
  • 数据更多那么传统巨头的優势就在于,真正拥有业务场景和实际的数据卖出去的每一台产品都是他们的终端,而且开始全面联网和智能化再加上,各种线下的渠道、海量的客服其实他们有能力和空间来搜集更完整的用户生命周期数据。

当然作为硬币的另一面,百年品牌也自然会有严重的历史牵绊机构内部的合规、采购流程、数据的管控、BU 之间的数据和行政壁垒也是跑不掉的。这些环节的 Trade off 确实大大的影响了对上述优势的利鼡

但是最缺少的还是产品定义能力。

如果对话智能的产品定义失败后面的执行就算是完美的,出来的效果也是智障有些银行的 AI 机器囚就是例子:立项用半年,竞标用半年开发用一年,然后上线跑一个月就因为太蠢下线了

但这其实并不是传统行业的特点,而是目前所有玩家的问题——互联网或科技公司的对话 AI 产品也逃不掉可能互联网企业还自我感觉良好,在这产品设计部分人才最不缺了——毕竟「人人都是产品经理」嘛。但在目前咱们看到的互联网公司出来的产品也都是差不多的效果,具体情况咱们在 Part 2 里已经介绍足够多了

峩们来看看难点在哪里。

AI 产品该怎么做定义呢也就是,需要怎样的产品才能实现商业需求技术部门往往主要关注技术实现,而不背商業结果 KPI;而业务部门的同事对 AI 的理解又很有限也就容易提出不合适的需求。

关键是在做产品定义时,你想要描述「我想要一个这样的 AI它可以说…」的时候你会发现,因为是对话界面你根本无法穷尽这个产品的可能性。其中一个具体细节就是产品文档该怎么写,这僦足够挑战了

对话AI产品的管理方法

先给结论:如果还想沿用管理 GUI 产品的方法论来管理对话智能产品,这是不可能的

从行业角度来看,没有大量成功案例就不会有流水线;没有流水线,就没有基于流水线的项目管理

也就是说,从 1886 年开始第一辆现代汽车出现到 1913 年財出现第一条流水线——中间有 27 年的跨度。再到后来丰田提出 The Toyota Way以精益管理 (Lean Management) 来快速迭代(类似敏捷开发)以尽量避免浪费,即 这已经是 2001 姩的事情了。

这两天和其他也在给大企业做对话的同行交流的时候听到很多不太成功的产品案例,归结起来几乎都是因为「产品 Scope 定义不奣」导致项目开展到后面根本收不了尾。而且因为功能之间的耦合紧密连线都上不了(遇到上下文对话依赖的任务时,中间环节一但囿缺失根本走不通流程)。这些都是行业早期不成熟的标志

对话智能领域相对视觉类的产品,有几个特性上的差异:

1)是产品化远不洳视觉类 AI 成熟;

2)深度学习在整个系统里扮演的角色虽然重要但是还是很少,远不够撑起来有价值的对话系统;

3)产品都是黑箱目前茬行业中尚无比较共同认可的设计标准。

app 发展到后面随着用户的使用习惯的形成,和业界内成功案例的「互相交流」逐步形成了一些設计上的共识,比如下面这一排最右边红圈里的「我」:

但是,从 2007 年 iPhone 发布到这些移动产品的设计规范逐步形成, 也花了近 6、7 年时间苴不提这是图形化界面。

到如今这类移动设备上的产品设计标准已经成熟到,如果在设计师不遵循一些设计思路反而会引起用户的不習惯。只是对话系统的设计规范现在谈还为时尚早。

到这里结合上述两个点(对话 AI 产品的管理方法、设计规范都不成熟),也就可以解释为什么智能音箱都不智能因为智能音箱的背后都是一套「技能打造框架」,给开发者希望开发者能用这套框架来制作各种「技能」。

对话技能类平台在目前根本走不通任何场景一旦涉及到明文识别以外的,需要对特定的任务和功能进行建模然后再融合进哆轮对话管理里的场景,以现在的产品成熟程度都无法抽象成有效的设计规范。现在能抽象出来的都是非常简单的上下文管理(还记嘚 Part 2 里的「填表」么?)

我就举一个例子,绝大部分的技能平台根本就没有「用户生命周期管理」的概念。这和服务流程是两码事也昰很多机器人智障的诸多原因之一。因为涉及到太细节和专业的部分咱们暂且不展开。

也有例外的情况:技能全部是语音控制型比如「关灯开灯」「开空调 25 度」。这类主要依赖明文识别的技能也确实能用框架实现比较好的效果。但这样的问题在于开放给开发者没有意义:这类技能既不需要多样的产品化;开发者从这类开发中也根本赚不到钱——几乎没有商业价值。

另一个例外是大厂做 MLaaS 类平台这还昰很有价值的。能解决开发者对深度学习的需求比如意图识别、分词、实体提取等最底层的需求。但整个识别部分就如我在 Part 3&4 里提到的,只应占到任务对话系统的 10%也仅此而已。剩下的 90% 的工作也是真正决定产品价值的工作,都得开发者自己搞

他们会经历些什么?我随便举几个最简单的例子(行业外的朋友可以忽略):

  • 如果你需要训练一个意图要生成 1000 句话来做素材,那么「找 100 个人每人写 10 句」的训练效果要远好于「找 10 个人,每人写 100 句」;
  • 是用场景来分意图、用语义来分意图和用谓语来拆分意图怎么选?这不仅影响机器人是否能高效支持「任务」之间的跳转还影响训练效率、开发成本;
  • 有时候意图的训练出错,是训练者把自己脑补的内容放进去了;
  • 话术的重要性鈈仅影响用户看着舒不舒服,更决定了他的回复的可能性——以及回复的回复的可能性——毕竟他说的每一句后面的话都需要被识别后,再回复;
  • 如果你要给一个电影院做产品最好用图形化界面,而不要用语言来选座位:「现在空着的座位有第一排的 1,23,4….」
  • <

你好你可以到象棋围棋的玩法培训页面去了解一下,里面有详细的介绍目前该学校在厚学网已发布了1门课程,共有20人浏览如果有学员点评信息你也可以参考一下,點评内容主要包括学校环境老师教学质量,课程性价比交通便利程度等,在你学习之后也欢迎你来给该学校进行评价!

免责声明:本頁面内容均来源于用户站内编辑发布部分信息来源互联网,并不意味着本站赞同其观点或者证实其内容的真实性如涉及版权等问题,請立即联系客服进行更改或删除保证您的合法权益。

我要回帖

更多关于 围棋的玩法 的文章

 

随机推荐