社交账号登录

社交账号登录

0/34

上传头像

拖拽或者缩放虚线框,生成自己满意的头像

头像

预览

忘记密码

设置新密码

智能

人工智能可以说出下一句话,机器越来越厉害的阅读理解能力意味着什么?

Cade Metz2018-11-23 06:58:18

“这些系统距离真正理解东拉西扯的散文仍有很大差距。”

本文只能在《99uu在线娱乐日报》发布,即使我们允许了也不许转载*

艾伦人工智能研究所(Allen Institute for Artificial Intelligence)是一家总部位于美国西雅图的研究机构。今年 8 月,该所研究人员推出了计算机英语测试,旨在考察计算机是否能够完成如下类型的句子填空:

舞台上,一名女子坐在钢琴前。她

a)坐在长凳上,而她的妹妹在玩儿洋娃娃。

b)在音乐响起时向某人微笑致意。

c)在人群中观看舞者跳舞。

d)紧张地把手指放置在琴键适当的位置上。

对你来说,这简直就是小菜一碟,但对计算机而言却困难重重。人类做这类测试时,正确率通常在 88% 以上,但艾伦研究所的人工智能系统答题正确率只有约 60%。尽管如此,专家认为这样的数据表现已十分惊艳,因为他们深知搭建此类懂得自然语言的系统有多难。

两个月后,Google 研究团队发布了名为贝尔特(Bert)的系统。Bert 在技术上有所改进。即使设计 Bert 系统的初衷不是用于解答测试题目,但 Bert 在回答上述问题时却表现得与人类一样好。

Bert 的出现为人工智能的发展留下了浓墨重彩的一笔。过去几个月,研究人员已经向大家证明计算机系统可以通过一般的方式学习变幻莫测的语言,并可将其应用于其他任务。

通过几个独立研究机构(包括 Google 和艾伦研究所)紧锣密鼓的开发,这类人工智能系统起到改进多种技术的作用,从像 Alexa 和 Google Home 这样的数字助手,到自动分析律师事务所、医院和其他公司内部文件的软件,都有这些系统的用武之地。

Fast.ai 是一家总部位于美国旧金山的独立实验室,走在人工智能研究的前沿。其创始人杰里米·霍华德(Jeremy Howard)表示:“每当我们开发出接近人类水平的全新行事方式时,就有可能实现人类劳动自动化或助力人类劳动。这样一来,律师或律师助理的工作会变得轻松些。此外,还能对医疗事业起到帮助作用。”

这种全新的研究成果还可能最终催生一种新技术,借此能展开体面的对话

然而,研究成果也会产生负面影响。霍华德指出,在像 Twitter 这样的社交媒体上,通过这种新技术可以设计出足以欺骗大家的机器人账号(bot) ,让大家误以为是真人。

研究人员已经向大家证明,迅速发展的人工智能技术促进了更多以假乱真伪造图片的生成。霍华德说,随着这类技术进入语言领域,我们可能需要比以往任何时候提高警惕,对我们在线遇到的对象持更多的怀疑态度。

这些全新的语言系统通过分析人类书写的海量句子学习。美国开放人工智能研究中心(OpenAI)是一家总部位于美国旧金山的实验室。该中心开发了一个系统,用于分析成千上万的自助出版图书,这些书籍包括言情小说、科幻小说等。Google 的 Bert 也对同样的书籍进行了分析,同时还分析了 Wikipedia 的所有内容。

这两个系统都通过分析所有文本习得了特别的技能。OpenAI 的系统在其技术帮助下学会了猜测一句话中的下一个词汇。Bert 学会了猜测一句话任何一个位置上缺失的词汇。除了精通这些技能之外,这两个系统还学会了语言是如何组织在一起的。

Bert 开发主管、Google 研究人员雅各布·德夫林(Jacob Devlin)称,如果 Bert 能够从大量句子中猜测出缺失的词汇(例如:“这名男子走进商店,买了一___牛奶。”),那么它就通晓英语词汇的基本关系。(Bert 为“基于 Transformers 的双向编码器表征”——Bidirectional Encoder Representations from Transformers 的缩写。)

该系统能够把这些知识应用在其他任务上。如果研究人员向 Bert 提供一系列问题及答案,Bert 能够通过自学回答其他问题。接着,如果研究人员为 Bert 输入描述相同事件的头版头条,在两个句子类似的情况下,Bert 能够学会识别。通常,机器仅能在精确匹配情况下作出识别。

另外,Bert 可以轻松应付艾伦研究所的“常识”测试,也在回答百科全书文章问题的阅读理解测试方面游刃有余。什么是氧气?什么是降水?Bert 都知道。在另一项测试中,Bert 显示出了判断影评情绪的能力,可指明影评究竟是带有积极色彩还是消极色彩。

纽约大学教授、自然语言研究专家萨姆·鲍曼(Sam Bowman)表示,此类技术“向人工智能很多遥不可及的目标迈出了一大步,其重要程度堪比那些能够总结并整合海量杂乱信息、从而有助于人们做重大决定的技术。”

在 OpenAI 的系统发布几周后,外部研究人员把此系统应用在了对话当中。一些研究人员组成了一个独立小组,使用 OpenAI 的技术开发了一个系统,引起了构建最佳聊天机器人的竞赛,该竞赛由包括 Facebook 人工智能实验室在内的几个顶级实验室联合组织。本月,Google 开源了 Bert 的代码,这样其他研究人员可将其应用于其他任务。德夫林已带领团队成员为 Bert 完成了 102 种语言的培训。

塞瓦斯蒂安·鲁德西(Sebastian Rudersees)是一名研究人员,目前在爱尔兰工作,与 Fast.ai 建立了合作关系。鲁德西认为,类似 Bert 这类系统的出现,为他和其他人工智能研究人员“敲响了警钟”,因为他们一度认为语言技术已经达到了极限。他表示:“其实还有很多未开发的潜力。”

支持这种技术的复杂数学系统叫做神经网络。最近几年,此类机器学习在人脸识别技术无人驾驶汽车项目方面进步神速。研究人员把它称之为“深度学习”。

Bert 之所以能够成功,部分原因在于它依赖于海量计算机处理能力,而神经网络在过去无法获得这样的能力。Bert 通过使用几十个 Google 设计的、专用于神经网络训练的计算机处理器,花费好几天时间完成了对维基百科上文章的分析。

德夫林说,推动 Bert 形成的想法已存在多年,但如今才开始起作用,原因是只有现代硬件技术才能兼顾更大数量的数据。

像 Google 一样,其他很多公司如今也致力于生产专门用于此类机器学习的芯片。许多公司也相信,额外处理能力的注入将继续推动形形色色的人工智能技术加速进步,这些技术当然也包括最引人注目的自然语言应用。

Google 人工智能主管杰夫·迪安(Jeff Dean)说:“Bert 成为了这方面的第一个推动力。但实际上就我们追寻的目标而言,Bert 起到的推动作用还不是那么大。”迪安认为,日益强大的处理能力将推进机器形成更好的自然语言应对能力。

加里·马库斯(Gary Marcus)是纽约大学心理学教授,长期质疑神经网络的有效性。他说:“我们有理由怀疑这种技术能够持续取得快速进步,原因是研究人员倾向于关注那些他们能够取得进展的任务,而总是希望避开那些进展受挫的任务。这些系统距离真正理解东拉西扯的散文仍有很大差距。”

艾伦人工智能研究所首席执行官奥伦·埃齐奥尼(Oren Etzioni)是争取把研究扩展到神经网络领域之外的另一个杰出人物,他也提出了同样的观点。

埃齐奥尼指出:尽管 Bert 通过了实验室的常识测试,但机器仍然与人类常识的人工智能版本有很大距离。但正如人工智能领域的所有其他研究人员一样,他也认为自然语言研究的轨迹已产生变动。他认为,现在是取得“爆炸性进步”的时机。


翻译:熊猫译社 夏晴

题图来自 Franck V. on Unsplash

© 2018 THE NEW YORK TIMES

喜欢这篇文章?去 App 商店搜 99uu在线娱乐日报 ,每天看点不一样的。