网易专访中国科学院软件研究所人机交互技术与智能信息处理实验室研究员 王永吉
新闻背景:英国雷丁大学当地时间6月8日在其官网上发布消息,俄罗斯的一个团队开发了一款名为“尤金·古斯特曼(Eugene Goostman)”的计算机软件,模仿一名来自乌克兰的13岁男孩,首次成功地通过了英国雷丁大学组织的图灵测试,让33%的测试人相信它是人类。(相关新闻)
名词解释:图灵测试是由被誉为计算机科学之父、人工智能之父。阿兰·麦席森·图灵在1950年提出,是指在与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。问过一些问题后,如果被测试者超过30%的答复不能使测试人确认出哪个是人、哪个是机器的回答,那么这台机器就通过了测试,并被认为具有人类智能。
网易探索:聊天机器人古斯特曼模拟的是一个来自乌克兰的,母语不是英语的 13 岁男孩。模拟一个小孩,且是非英语国家的小孩,会不会对结果的可信度大打折扣?图灵测试里有没有对计算机模拟的人的身份年纪智商有界定?这个背景的设置是否严谨?
王永吉:一个好的图灵测试,整个测试的环境、对象、评价指标都应该是比较规范的。但从官方的新闻描述里,我没有看到这个实验的更多细节,包括机器的反应速度、后来的评判标准等。图灵测试现在还是一个比较泛的概念,并没有细化到要达到一个具体的什么标准。它原来就是针对人,但没有分人的智商、种族、语言的熟练程度以及对这个问题的理解度。
模拟的这个13的乌克兰小孩首先并不知道他对13岁小孩是否具有整体代表性。另一方面,如果从小孩进化的角度,不同年龄具体的样子要分化的非常细,比如3岁应该怎样,13岁应该怎样。两边的标准都没有的话,只能大概猜一下,仅用“13岁”这个概念并不能把它彻底地描述得很清楚。
网易探索:按照通过图灵测试的标准,问过一些问题后,如果被测试者超过30%的答复不能使测试人确认出哪个是人、哪个是机器的回答,那么这台机器就通过了测试,并被认为具有人类智能。这个30%的标准是如何设定的,在今天看来,此标准是否科学?
王永吉:要作这种判断,不妨把所有的大量的问答样本拿出来分析,“30%是否合理”本身也可以作一个题来研究。并没有固定的这种说法一定要是这个比例,这个时候要通过大量的不同的人,想不同的办法来评价这个东西,它的指标是什么本身也可以作研究。
我觉得这些事情不能单靠量化就能做出来的,要真正评价这个,还必须定一些标准,再适当的量化。至少需要百分之八九十以上,如果将来运用在只需要这个标准的工业产品中,可能这个比例是够的,但要完全实际应用,至少应该达到百分之八九十。但图灵测试在早期提出的时候,并不是针对专业特定的领域,只是泛泛地讲。如果有一个好的评判标准,应该超过30%,这个还不够高。
网易探索:谷歌工程部总监兼知名科学家雷蒙德·库茨魏尔(Ray Kurzweil) 表示,因为测试缺乏具体规定,因而并不能算是真正意义的完美通过。譬如,参与测试的裁判们只允许与声称有13岁孩童智商的尤金·古斯特曼进行限时5分钟的互动。这样的规定提高了裁判们被机器愚弄的可能。纽约大学认知科学教授盖理·马库斯(Gary Marcus)对库茨魏尔的观点表示认同,其在《纽约客》杂志上刊文写道:“测试不是由一个创新的硬件设备,而是由一个巧妙编写的软件来完成的。”马库斯指出,聊天机器人经常借助使幽默的手段来将对话人引导至别的话题上,因为这通常能避免回答一些其无法理解的问题……图灵测试的规则设置是否确实存在一些不严谨的地方?
王永吉:我虽然没有读它的背景设置是不是比较取巧,但根本的问题要看它的背景设置是否合理。背景包括很多东西,比如测试的范围。我觉得这个方面还可以设置得更规范一点,如果这个计算机本身有能力回答问题,不妨随机大量抽取样本,比如可以找1000个人来提问题,或者直接把这个软件放到网上去让公众测试,再加一点技术,比如弄一个麦克风(现在语言处理的速度应该能够跟得上)。将提问者说的话通过打字的方式或其他方式把这句话传过去,那边进行回答(当然也要考虑这个是不是这个机器的一部分,因为这里也涉及到了语言识别的问题),这些场景设计都很重要。如果自动化做好了,还可以当个游戏来做。而不仅仅只是找几个人,然后急于下结论。我没看到它整个实验的环境,这个小孩是仔细分析了去答,还是有心计的答或者漫无目的的聊天,这些东西在新闻里都没看到(其实这些概念在早期图灵的定义里都没有定义的很好),因此,单从新闻里描述的来看,这个实验不足以判定这个机器就能很好地模拟人。
网易探索:对于图灵测试科学界对此都有一些争议,有哪些有代表性的学术机构和学者支持图灵测试,依据是什么;哪些不支持,反对依据又是什么?目前科学界对图灵测试普遍采用的观点是什么?
王永吉:从我了解得来看,现在关于图灵测试,在科学界还没有形成公开的,大范围的,严肃的讨论。
网易探索:“图灵测试”也是一个已经存在了 65 年的概念,但许多研究者认为它已经不能检测现代的 人工智能(AI) 了。从现在的科学发展来看,把图灵测试作为判定智能的标准是否有些落伍?
王永吉:前面提到过,如果没有一些科学规范的标准,就不太好检测AI。而且AI的概念也非常的宽泛,很多早期的概念都在不断发展,每个人对AI都有自己的一个理解,AI也在往前走。如果把图灵测试的范围等等各方面都弄清楚,可能可以回答人工智能中应该怎么样判断到什么样的程序,怎么个标准,有什么等级,有什么规范,反而他能促进AI中这些根本的东西。
现在的图灵测试中包含的其实就是一些相关的词,然后组成句子。你说一句,我就这样判断,不管对不对,但总是相关的。原来很多概念没有提出来,比如主题,聚类,上下的逻辑、情感、正反等,在大数据或者数据挖掘中,现在的一些概念已经超出了原来,如果要做研究,应该有一个更新,要重新把这些东西拿起来再定义它,从方方面面,比如问题角度,问题范围,评价指标等,要有更好的标准。这些概念是没有跟上现在时代的发展的。
网易探索:通过“图灵测试”对实际的生活会产生直接重大的影响吗?
王永吉:如果把图灵测试最终的评价标准科学化之后,让机器沿着这个目标去努力,就可最终衡量这项技术在那个领域能达到人的什么程度的能力。比如,模拟13岁孩子,先研究13岁孩子从语言范畴上,会干什么。成功之后,他就可以替代相应的人去做,这在技术上就是一个好事。
网易探索: 图灵测试这项技术未来如果用于网络犯罪是否是一个重大威胁?
王永吉:这个技术将来能带来的好处是很多方面的,用途也非常广,但是一定会带来一些负面的东西,关键看怎么用。这是大多数新技术都会遇到的问题,比如各种情况的造假,把声音模仿的很像,远程操作的话,你就没法判断是我本人答的还是机器答的,会有这类关于身份识别的问题。但因为实现这个事本身都还在摸索阶段,所以也没有太多具体的关于后期负面的讨论。
网易探索:在计算机技术发展史上,不乏有人对人工智能的极限产生怀疑,认为机器无论怎样都无法拥有如人的思维一般复杂且综合的能力,您的态度是怎样的?
王永吉:应该是很难,人不仅只涉及到语言,还包括情感等其他各种方面的能力。我现在不敢贸然下结论,但我估计三五十年之内不会出现真正能像人一样做的好的机器。智能语言处理是人工智能一个根本,对于语言第一要理解正确,第二要回答正确,这两点处理起来,都因为有很多的歧义性而很难。假如一个字会有多义,坦率的说,这里面的问题就比较多。像人工智能里的神经网,进化算法、遗传算法等,虽然起得名字和人脑机制一样,但我不认为现在能回答人脑彻底是怎样思维的,人脑的机制还没有弄清楚,就无法知道用什么样的机器能彻底的架出这种架构了。目前的计算机只是靠一些算法来做的,所以还不行。