人工智能研究的五大支柱-刘湘辉博士

2023-08-16

摘 要:在本文中,我们概述了我们认为目前人工智能和智能计算(AI和CI)领域面临的一些最紧迫的研究问题。人工智能涵盖了一系列方法,使机器能够从数据中学习并自主操作,而CI则是通过在受复杂自然现象(包括大脑的工作)启发的算法中找到自己的利基来实现这一目标的手段。在本文中,我们使用五个独特的r来界定这些领域的关键问题,即合理性、弹性、可重复性、现实性和责任感。


     人工智能(AI)的最初灵感是建立能够在特定领域与人类水平的智能相匹配的自主系统。同样,与之密切相关的智能计算(CI)领域的出现,是为了试图人为地再现在自然界中以各种形式观察到的完美的学习和解决问题的能力--从模仿人脑复杂功能的认知计算的例子,到受蚂蚁等看似简单的生物体中的高效觅食行为启发的算法。尽管它们的起点(相对)不高,但在今天,(i)容易获得大量且不断增长的数据,(ii)计算能力的快速增长,以及(iii)数据驱动的机器学习(ML)算法的稳步改进,这些因素的综合作用在帮助现代人工智能系统在各种应用中大大超过了人类可以实现的性能。在这方面,一些最突出的成功案例已经成为国际头条新闻,包括IBM的Watson赢得了Jeopardy!,谷歌DeepMind的AlphaGo程序击败了世界领先的围棋选手,他们的Alpha Zero算法完全通过 "自我发挥 "学习,在国际象棋比赛中击败了世界冠军,以及卡耐基梅隆大学的人工智能击败了四个世界最佳职业扑克玩家。由于在过去十年中见证了人工智能技术的加速发展,越来越多的人认为该领域已经准备好对整个社会产生重大影响。鉴于人类已经取得的大部分成就都是人类智力的产物,很明显,用人工智能增强认知能力的可能性(这种协同作用也被称为增强智能[8])为改善医疗保健、环境科学、经济、治理等高影响领域的决策智能提供了巨大的潜力。尽管如此,仍然存在着重大的科学挑战,需要首先关注人工智能的概念,使其得到更广泛的信任、接受,并无缝地融入社会结构中。在这篇文章中,我们用五个独特的词语来划分这些挑战,即(i)R1:合理性;(ii)R2:弹性;(iii)R3:可重复性;(iv)R4:现实性;以及(v)R5:责任。在我们看来,这代表了人工智能研究的五个关键支柱,将支持该领域在21世纪及以后的持续增长。总之,我们强调,正如空气是生物生命的基本要素一样,上述五个词语在这里被用来标记人工生命的一些基本要素。文章的其余部分将对这五个词语中的每一个进行简要总结,提请注意它们与人工智能的未来的根本相关性。


1. 人工智能系统的合理性

      目前,人工智能的许多创新都是由以所谓的深度神经网络(DNNs)为中心的ML技术推动的。DNNs的设计松散地基于构成人脑的复杂生物神经网络,多年来作为自然界中智能的主要来源,它(毫不奇怪)已经引起了人们的极大兴趣。然而,DNNs经常被批评为高度不透明。人们普遍认为,尽管这些模型经常可以达到显著的预测精度,但它们的分层非线性结构使它们难以解释(松散地定义为理解模型可能做了什么的科学),并得出解释,为什么某些输入会导致观察到的输出/预测/决定的发生。由于缺乏透明度和因果关系,DNN模型主要被当作黑箱使用。考虑到上述情况,我们认为人类要培养对现代人工智能系统的更大接受度,他们的工作和结果输出需要变得更加合理化,即拥有被合理化的能力(解释和说明)。最重要的是,在对安全至关重要的应用中,对合理性的需求不能打折扣,因为在这些应用中,必须充分理解和验证人工智能系统所学到的东西,然后才能在野外部署;典型的应用包括医疗诊断、自动驾驶等,在这些应用中,人们的生命会立即受到威胁。例如,一项众所周知的研究揭示了神经网络不透明的威胁,即对社区获得性肺炎领域的病人死亡率的预测。虽然该神经网络似乎是这项任务最准确的模型(当在可用的测试数据上测量时),但发现一个替代的(不那么准确但更容易解释)基于规则的系统从其中一个肺炎数据集中发现了一些规则,这个推断的规则显然是可疑的,它揭示了用于训练系统的数据中一个明确的(尽管是严重误导的)模式,这个模式可能也阻碍了神经网络。不幸的是,在这种微妙的情况下,无法检查和验证训练好的神经网络的正确性,往往会排除它们的实际应用性;这就是病人死亡率预测问题的情况。在一般的科学和工程学科中也可能遇到类似的情况,人工智能系统至少必须符合基本的物理定律,才能被认为是值得信赖的。因此,开发以既定理论为基础的合理化模型,可以在很大程度上防止因无意中从原始数据中学习虚假模式而造成的潜在失误。有人认为,尽管可解释和可说明的人工智能确实是可合理化的核心,但它们并不是完整的故事。考虑到以前未见过的输入数据,虽然有可能获得对模型预测的解释,但模型对其自身预测的信心程度可能没有得到适当的捕捉和体现;这种不确定性的存在才是合理的,尤其是对于输入点位于用于模型训练的数据集的体系之外的情况。概率理论为代表这种不确定性提供了一个数学框架,因此被认为是人工智能合理性的另一个重要方面,通过考虑所有可能的结果,帮助最终用户做出更明智的决定。在这方面,值得注意的是,尽管DNNs(正确地)被认为是ML技术中最先进的,但它们(到目前为止)不能令人满意地表示不确定性。这为未来在概率人工智能和ML方面的研究工作奠定了基础,最近在中提出了一些对普通深度学习算法进行原则性贝叶斯解释的基础性工作。


2.人工智能系统的弹性

       尽管人工智能取得了惊人的进步,但最新的研究表明,即使是最先进的模型(如DNN)也有一种特殊的倾向,即容易出错。在计算机视觉领域出现了众所周知的例子,一个训练有素的DNN分类器的输出被发现可以通过简单地对输入图像引入一个小的加性扰动而发生巨大的改变。一般来说,增加的扰动(也被称为对抗性攻击)是如此之小,以至于人眼完全无法察觉,但却会导致DNN的错误分类。在极端情况下,只攻击图像的一个像素就足以骗过各种类型的DNN。整个现象的一个特别有启发性的例子,通过在一个 "停止 "标志上添加一些黑白贴纸,一个图像识别AI被愚弄成一个 "限速45 "的标志。值得强调的是,类似的结果在语音识别应用中也有报道。虽然这种严重错误分类的后果显然是可怕的,但上述("停止 "标志)的案例研究对于像自动驾驶汽车这样的行业来说尤其令人震惊。出于这个原因,近年来一直在努力尝试使DNN更具弹性,即拥有在面对攻击(输入扰动)时仍能保持高预测精度的能力。为此,提出的一些防御措施包括暴力对抗训练、梯度掩蔽/混淆、防御性蒸馏和网络附加物,仅此而已。尽管如此,核心问题还远远没有被根除,并需要未来的大量研究关注。除了设计在完全训练好的模型部署运行后发生的对抗性攻击外,数据中毒也作为一种不同的攻击出现,可以直接削弱训练阶段的工作。具体来说,在这种情况下,攻击者的目标是巧妙地掺杂训练数据集,通过添加新的数据点或修改现有的数据点,使学习者被迫学习一个糟糕的模型。由于所有ML系统的主要成分--即训练数据本身,来自外部世界,容易受到有意或无意的操纵,因此确保对此类攻击的性能稳健性显然是最重要的。现代ML方法的挑战进一步加剧,如联合学习,它被设计为在雾网中运行,其中集中式全局模型的参数将通过分布式计算进行更新,这些计算使用的数据存储在参与设备(如移动边缘设备,包括手机、智能可穿戴设备等)的联盟中;因此,针对恶意数据中毒攻击的先发制人的措施对于安全人工智能是必不可少的。


3.人工智能系统的可重复性

       在训练DNN和一般的ML模型时面临的一个经常谈论的挑战是复制危机。从本质上讲,文献中报告的一些关键结果被发现很难被其他人复制。正如在中所指出的,对于任何声称是可信的和有价值的,可重复性是一个最低的必要条件。因此,通过创建和遵守明确的软件标准,以及在共享数据集和基准上进行严格的系统验证和确认,来确保人工智能系统的性能可重复性,对于保持其可信度至关重要。在下文中,我们将简要地讨论在追求理想结果的过程中的另外两个互补的轨道。在成功复制已发表结果的道路上,一个重要的障碍是大量的超参数,例如,神经结构的选择、学习算法的参数等--必须在任何给定的数据集上训练模型之前进行精确配置。尽管这些配置通常在模型或学习算法的核心成分中得到次要的处理,但它们的设置可以大大影响学习过程的效果。因此,缺乏优化超参数选择的专业知识会导致训练后的模型表现不尽人意。换句话说,该模型未能发挥其真正的潜力,这可能已经在科学出版物中报告过了。考虑到上述情况,替代手工制作的超参数配置的一个有希望的方法是将整个过程自动化,把它作为一个全局优化问题。为此,人们提出了一系列技术,包括随机进化算法以及贝叶斯优化方法,使其有可能在不需要人类参与的情况下选择接近最优的超参数(从而防止人类的不准确)。整个方法属于所谓的AutoML(自动机器学习)的范围,这个话题最近在ML从业者中引起了很多关注。在AutoML的前沿是正在进行的开发算法的尝试,该算法可以自动转移和重用跨数据集、问题和领域的学习知识。我们的目标是提高人工智能的通用性,使性能效率不仅局限于一个特定的(狭窄的)任务,而且可以通过共享共同的知识构件在其他相关任务中重现。在这方面,有希望的研究方向包括转移和多任务学习,以及它们在全球优化领域的扩展(通过转移和多任务优化)。在自然启发的CI领域,目前正在开发的一个相关研究主题是记忆计算--其中社会学意义上的记忆(最初在中被定义为居住在大脑中的基本信息单位,并通过模仿过程从一个大脑复制到另一个大脑)已被转化为体现各种形式的计算编码知识,可以从一个任务中学习并传输到另一个任务,目的是赋予AI类似人类的一般问题解决能力。在长期开发能够辅助超参数选择过程的算法的同时,鼓励人工智能可重复性的一个更直接的步骤是灌输分享科学出版物中记录良好的源代码和数据集的做法。虽然开放合作和开源软件开发在人工智能领域越来越普遍,但最近的一项调查表明,目前顶级人工智能会议上的文档做法仍然使报告的结果大多无法重现。换句话说,仍然需要建立统一的软件标准--与代码文档、数据格式、测试环境的设置等有关,这样才能更容易地对人工智能技术进行评估。


4.人工智能系统的现实性

      到目前为止,所介绍的三个词语主要集中在人工智能系统的性能效率和精度上。在这一节中,我们将注意力转向给机器灌输一定程度的情商,展望未来,这被认为对人工智能在社会中的无缝同化同样重要。除了能够吸收和处理大量的数据以支持大规模的工业自动化和复杂的决策之外,人工智能在涉及人类亲密互动的领域也显示出了前景;例子包括智能音箱(如谷歌Home设备和亚马逊的Alexa)的日常使用,通过虚拟导师改进教育,甚至通过使用聊天机器人向叙利亚难民提供心理支持。为了值得信赖,这种人类意识的人工智能系统不仅必须准确,而且还应该体现出类似人类的美德,即亲和力、仁慈和诚信。在我们追求智能系统的真实性的过程中,必须在不断追求高精度和自动化与创造机器行为以实现更充实的人机互动之间寻求一种平衡。在这方面已经出现了各种研究线索。一方面,情感计算的主题旨在通过研究提高人工智能在识别、解释和表达现实生活中的情绪和情感方面的能力,来更好地理解人类。该主题面临的关键挑战之一是开发能够检测和处理多模态数据流的系统。激励的理由源于这样的观察:不同的人以不同的方式表达自己,在不同程度上利用不同的交流方式(如语言、身体语言、面部表情等)。因此,在大多数情况下,视觉和听觉信息线索的融合能够对一个人的情绪提供更全面的理解,至少与孤立地处理单独情绪线索的最佳单模态分析技术相比。与处理一类特定的以人为本的学习问题的情感计算相比,集体智能是一个元概念,它提出了明确地利用 "人群 "的智慧来塑造人工智能的想法。作为一个具体的(技术)例子,中报道了通过对大数据集的特征工程的众包方法,ML模型可以被训练成在短的任务完成时间内达到最先进的性能。重要的是,这种社会指导下的ML练习的成功揭示了将人类专业知识(即知识记忆)结合到人工智能训练过程中的更普遍的范围,从而鼓励社会科学家、行为学家、人文主义者、伦理学家等参与塑造人工智能技术。成功地利用广泛的专业知识将为原本机械化的从原始数据中学习的程序引入更多的人类元素,从而有望使人工智能在社会的眼中得到更大程度的接受。


5.人工智能系统的责任感

       因此,我们在最后的词语中归纳的正是这种将伦理学纳入人工智能的目标;"伦理学 "一词在这里被假定为一门规范的实用哲学学科,即一个人应该如何对他人采取行动。我们注意到,虽然现实主义的范围强调了人类和机器的亲密合作,但责任代表了一个总体的概念,必须被整合到人工智能系统的各个层面。如前所述,现代人工智能技术的一个惊人的成果是能够从大量的数据中有效地学习复杂的模式,往往导致性能水平超过人类极限。然而,并不令人惊讶的是,正是它们的显著优势也变成了一个令人严重不安的问题;现在人们经常讨论机器人接管世界的二元论场景。因此,从Isaac Asimov的机器人世界的小说组织原则中得到启发,当今的人工智能研究界已经开始意识到,机器伦理在智能自主系统的设计中起着核心作用,这些系统被设计成由人类利益相关者组成的更大生态系统的一部分。也就是说,明确划分什么是机器的道德行为,以便围绕它创建精确的法律,并不是一件简单的事情。虽然现有的框架在很大程度上将编纂道德规范的责任放在了人工智能开发者身上,但在中有人认为,与智能系统相关的道德问题可能超出了系统设计者的掌握范围。事实上,存在几个微妙的问题,涉及隐私、公共政策、国家安全等问题,需要计算机科学家、法律专家、政治学家和伦理学家之间的联合对话和集体努力。为了说明问题,下面列出了必然会被提出,但很难(如果不是不可能)客观地解决的问题。

i) 就隐私而言,在多大程度上应该允许人工智能系统以性能定制的名义从监控摄像头、电话线或电子邮件中探测和访问个人数据?

ii)应该如何为自动驾驶汽车制定政策,以权衡人类受伤的小概率与私人或公共财产的重大物质损失的近乎确定性?

iii)在国家安全和国防应用中,自主武器应如何在保持其最初设计目标的同时遵守人道主义法律?

       在处理上述类型的问题时,达成共识将是一个挑战,特别是由于道德的正确性往往是主观的,并可能因社会和个人而异。因此,在人工智能中建立伦理的愿景无疑是一个重要的紧迫性,需要全世界的研究投入。最后,必须指出,从合理性到现实性引入的各种概念累积起来是实现人工智能中更大责任的垫脚石,使自主系统有可能可靠地运作并在人类伦理和情感的框架下解释它们的行为。事实上,这样做的能力是 "解释权 "所必需的,正如欧盟的《通用数据保护条例》所暗示的那样。