Press "Enter" to skip to content

当我们说到机器“理解”到底在说什幺?

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

机器学习领域奠基人之一 Thomas G. Dietterich 最近的发文,主要是对最近大家批评人工智能(AI)没有真正理解的回应,分享了他的看法,认为不应该追求所谓虚无缥缈的理解,而应该更加务实的建立一系列评估指标来测试系统是否有我们想要的功能。鉴于最近读的一些书,我想可以把这个称为 AI 实用主义 。

 

原文: What does it mean for a machine to “understand”?

 

 

最新 AI 进展的批评者们抱怨,尽管这些进展给 AI 系统带来了显着的性能提升,但系统仍没表现出“ 真实的 (real)”或“ 真正的 (genuine)”。使用“真实”,“真正”之类的词意味着 这里认为的“理解”是二进制的 。

 

一个系统要幺表现为“真正的”理解,要幺没有。这种思维方式的困难之处在于,即使人类的理解,也永远是不完整和不完美的。我认为 “理解”存在于一系列连续的范围上 。

 

比如说考虑“水”的概念,大多数人了解水的许多属性:水是湿的,可以喝,植物需要水,冰冷后会形成冰,等等。但不幸的是,许多人并不了解水是导电体,因此,人们不应该在淋浴时用吹风机。然而,我们不会说这些人缺乏对水的“真实的”或“真正的”理解。相反,我们只会说他们的理解是不完整的。

 

 

我们 应用同样的态度来评估 AI ,现有系统表现出了某些程度的理解。例如,当我告诉 Siri “呼叫 Carol ”,然后它拨打了正确的号码,这时你很难说 Siri 没理解我的请求。当我问 Google “ IBM 的 Deep Blue 系统是打败了谁?”,然后它给我一个带有大写字母的“ Kasparov(卡斯帕罗夫) ”信息框时,它已正确理解了我的问题。当然,这种理解是有限的。如果我接着用 “何时?” 向 Google 提问,它却给出了“何时”的字典定义—它不会将我的问题理解为对话的一部分。

 

关于“理解”的争论可追溯到亚里斯多德,之后在 塞尔的中文房间论证 (Searle,1980)中最清楚地表达出来。推荐大家去读读 Cole 在《斯坦福哲学百科全书(Stanford Encyclopedia of Philosophy)》中关于此话题非常棒的文章。我的立场是某种形式的功能主义, 功能性地描述“理解”,并根据它们在产生测量结果中的作用,来评估大脑或AI系统中各种内部结构的贡献 。

 

 

从软件工程的角度来看,功能主义鼓励我们 设计一系列测试来衡量系统的功能 。我们可以问一个系统(或一个人),“如果将水冷却到零下20度会发生什幺?”或“如果在淋浴时用吹风机会发生什幺?”并测量响应。在适当的程度上,可以说系统是理解的,而在反应出错时,可以找出系统具体在什幺地方是不理解。

 

为使系统能理解,系统必须在不同概念,状态和操作之间创建链接。当今的语言翻译系统可以正确地将英语中的“water”链接到西班牙语中的“agua”,但在“water”和“electric shock(电击)”之间却没有任何联系。

 

对最新 AI 进展的批评大致来自两个方面。首先, 围绕 AI 的炒作 (由研究人员,他们工作的组织甚至政府以及资助机构产生)已达到一个很高水平,它甚至引发了对“超级智能”或“机器人启示录”即将到来的恐惧,批评对于消除这类废话至关重要。

 

第二方面的批评,是 关于 AI 研究的未来方向 ,以及政府拨款分配的辩论。一边,是连接主义的倡导者,他们发展了深度学习并支持继续进行这一研究。另一边,是倡导基于符号构造和操纵(比如用形式逻辑)的AI方法。还有越来越大的群体正在讨论将两种方法结合在一起的系统。

 

 

批评对于这类讨论也至关重要,因为 AI 界必须不断挑战我们的假设,并选择如何花费社会的时间和金钱来发展 AI 科学和技术 。但我反对这样一种说法,即“当今基于深度学习的系统并没表现出真正的理解,因此应该放弃深度学习”。这种说法与说“今天基于深度学习的系统已取得了巨大的进步,所以要只研究它们来’解决智能’问题”的说法一样荒谬。我喜欢 Lakatos(1978)的分析,即 一个研究方向会倾向于一直被研究直到不再那幺容易出成果 。我认为应该继续追求连接主义,符号表征主义以及新出现的混合方案,因为它们现在都还在不断出成果。

 

此外,对深度学习的批评还导致了新的方向。特别是,虽然深度学习系统在各种基准任务上表现与人类相近,但却不能泛化到看起来非常相似的任务上,这已在领域中引发了危机。研究人员正在以新观念做出回应,例如 学习不变式 (Arjovsky, et al,2019; Vapnik&Ismailov,2019)和 发现因果模型 (Peters等,2017)。这些想法适用于符号机器学习和连接机器学习。

 

我相信我们应该在不涉及什幺才算是“真正的”理解的争论下,在 AI 的科学和技术上取得进步。相反,应鼓励专注于在未来5年,10年或50年内应实现何种系统功能。要根据可在 AI 系统上执行的测试来定义这些功能,以衡量系统是否具有这些功能。为此,必须能对功能进行操作。简而言之,我正在为 测试驱动的 AI 开发 辩护。这将需要将“理解”和“智能”这样的模糊概念转化为具体的,可衡量的能力。这本身,可能就是非常有用的课题。

 

 

操作测试不必只考虑AI系统的输入输出行为,还可以检查产生此行为的内部结构(数据结构,知识库等)。人工智能优于神经科学的一大优势是, 可以更轻松地在系统上进行实验,以了解和评估其行为 。但请注意。包括深度学习在内的连接主义方法常常会创建难以解释的内部结构,似乎大脑也是如此。

 

因此,我们不应该将确保某些结构(例如符号表示)存在作为研究目标。相反,我们应该 专注于所需的行为能力,并思考内部机制如何实现这些能力 。比如要成功进行对话,每个参与者都必须跟踪互动的历史。但这有很多方法可以做到,我们不一定要在深度学习系统中找到明确的历史记忆。反过来说,仅仅因为已经对特定的内部结构进行了编程,也并不意味着它会按照预期方式工作。Drew McDermott 在他着名的评论“Artificial Intelligence Meets Natural Stupidity(人工智能遇到自然愚蠢)” 中详细讨论了这个问题。

 

人工智能不断发展和受到批评的浪潮,造成一个被称为“ AI 效应 ”的结果。因为最新的 AI 系统没有表现出“真正的理解”或“真实的智力” ,所以整个领域被视为失败。结果是 AI 的成功被忽略了,资金也减少了。例如,有一段时间人们认为下国际象棋或围棋达到人类水平是这种智力的标准。但当 Deep Blue 在1997年击败Kasparov 时,一位着名的AI研究员认为,在国际象棋上打败人类很容易—为显示真实的智能,还必须解决“卡车倒车问题”,这涉及到将铰接的半挂牵引车倒入停车位。实际上,当时这个问题早在九年前就被 Nguyen 和 Widrow 使用强化学习解决了。今天,许多有思想的评论家再次提出新任务和新的必要条件或充分条件,以宣布系统“可以理解”。

 

 

同时,AI 研究与开发正在提供功能越来越强大的系统,这些系统可以为社会带来价值。无论是出于知识诚实还是为了持续提供资金,AI 研究人员都应为其成功和缺点承担责任,这一点很重要。我们还必须抑制围绕新进展的炒作,并且客观地衡量我们的系统,它到底了不了解用户,目标以及其所处的广阔世界。让我们 停止以“假冒”而不是“真正的”来贬低我们的成功,继续以诚实和富有成效的自我批评前进 吧。

 

引用

 

Arjovsky, M., Bottou, L., Gulrajani, I., & Lopez-Paz, D. (2019). Invariant Risk Minimization. ArXiv , 1907.02893(v2), 1–31. http://arxiv.org/abs/1907.02893

 

Baudiš,, P. & Gailly, J.-L. Pachi: State of the art open source Go program. In Advances in Computer Games , 24–38 (Springer, 2012).

 

Campbell, M., Hoane, A. J., Hsu, F. H. (2002). “Deep Blue”. Artificial Intelligence. 134 : 57–59. doi:10.1016/S0004–3702(01)00129–1

 

Cole, D. (2014). The Chinese Room Argument. The Stanford Encyclopedia of Philosophy https://plato.stanford.edu/entries/chinese-room/

 

Kuhn, Thomas S. (1962). The Structure of Scientific Revolutions (1st ed.). University of Chicago Press. p. 172. LCCN 62019621.

 

Lakatos (1978). The Methodology of Scientific Research Programmes: Philosophical Papers Volume 1 . Cambridge: Cambridge University Press

 

McDermott, D. (1976). Artificial intelligence meets natural stupidity. ACM SIGART Bulletin (57), 4–9.

 

Nguyen, D.S., & Widrow, B. (1989). The truck backer-upper: an example of self-learning in neural networks. International Joint Conference on Neural Networks (IJCNN 1989) , 357–363 vol.2.

 

Peters, J., Janzing, D., & Schölkopf, B. (2017). Elements of Causal Inference: Foundations and Learning Algorithms . MIT Press Cambridge, MA, USA.

 

Searle, J. (1980). Minds, Brains and Programs. Behavioral and Brain Sciences, 3 : 417–57

 

Vapnik, V., & Izmailov, R. (2019). Rethinking statistical learning theory: learning using statistical invariants. Machine Learning, 108 (3), 381–423. https://doi.org/10.1007/s10994-018-5742-0

Be First to Comment

发表评论

邮箱地址不会被公开。 必填项已用*标注