DARPA总结的AI五大瓶颈问题

发布于:2025-08-18 ⋅ 阅读:(20) ⋅ 点赞:(0)

作为人工智能研究的前沿机构,DARPA 总结了当前人工智能面临的五大瓶颈问题:首先是可解释性,现有复杂模型(如深度学习模型)难以清晰解释其决策过程,降低了模型在关键领域的可信度和可靠性;其次是机器常识,机器无法像人类一样理解常识知识,导致在复杂现实场景中推理和决策能力不足;第三是机器的终身学习,模型在学习新任务时容易遗忘旧知识,难以持续适应动态变化的环境;第四是动态的一多表征,机器难以处理同一概念在不同模态下的动态变化和融合表征;最后是弱相关的强相关化,现有方法难以从海量数据中挖掘并强化潜藏的弱相关关系,限制了人工智能在复杂系统中的预测和分析能力。这些问题构成了当前人工智能发展的主要挑战。

1、可解释性

目前许多先进的人工智能模型,特别是深度学习模型,如多内层深度神经网络(Transformer架构),被视为 “黑盒”。这些模型通过复杂的数学运算和大量的参数来处理输入数据并产生输出结果,但难以向人类解释其决策过程和依据。如在医疗诊断领域,一个深度学习模型可能能够准确判断某种疾病的影像特征,但对于医生和患者来说,很难理解模型是如何从大量的医疗影像数据中得出这个结论的,这会降低人们对模型的信任度。DARPA 的 “可解释人工智能” 项目旨在形成一套基础理论来解释人工智能得出结论的原因,推动研究人员理解人工智能行为决策背后的机理,使人类能够更好地理解、信任和有效管理未来的人工智能系统。

一种解决方法是开发解释性工具,如特征重要性分析。通过分析模型中各个输入特征对输出结果的贡献程度,来解释模型的决策。比如,在图像识别中,可以高亮显示图像中对分类结果起关键作用的区域。另一种方法是构建可解释的模型结构,如基于规则的模型或浅层的决策树模型,其决策过程相对容易理解,可以在保证一定程度的性能前提下,将部分深度学习模型转换为这些可解释的模型,或者将两者结合使用。

2、机器常识


机器普遍缺乏像人类一样的常识。常识是人类在日常生活中积累的广泛知识,包括物理常识(如物体下落)、社会常识(如社交礼仪)、生活常识(如食物烹饪方法)等。现有机器在处理复杂的现实场景时,由于缺乏常识,常常会出现不合理的结果。例如,当要求机器根据一句话 “我走进了房间,然后坐在椅子上” 推理出后续可能的动作,机器可能无法理解一般情况下人坐在椅子上后可能会进行阅读、工作等合理活动。2017 年 DARPA 启动过 “通过数字捕捉并传递人类行为规范” 的项目,让机器人能够快速评定给定情景并学会应用人类的社会行为规范,以此来解决机器常识的缺乏问题。

解决方法是构建大规模的常识知识库是关键。通过从大量的文本数据、人类专家知识等来源抽取常识知识,并以结构化的方式存储,如三元组(实体 - 关系 - 实体)的形式。例如,“椅子 - 用于 - 坐” 这样的常识知识。研究如何将这些常识知识有效地融入到机器学习模型中。可以通过知识嵌入的方式,将常识知识库中的知识转换为向量形式,然后与模型的其他部分(如神经网络的隐藏层)进行融合,使模型在学习过程中能够利用常识进行更合理的推理。

3、机器的终身学习

目前的机器学习模型大多是针对特定任务进行一次性训练。当面对新任务或环境变化时,模型需要重新训练,并且在新任务学习过程中可能会遗忘之前学习到的知识,这就是灾难性遗忘问题。如一个图像识别模型在学习了识别动物图像之后,再让它学习识别植物图像,它可能会对动物图像的识别能力下降。DARPA 开展 “终身学习机器” 项目的目的是使智能系统目前采用的固化训练方法能够被现场学习方法所取代,实现更安全、灵活、有效的人工智能系统能够在操作中学习并将学习内容应用于系统之前未经训练的新环境。

一种解决方法是弹性权重整合。该方法通过为模型的不同参数分配权重,重要参数在新任务学习过程中保持相对稳定,从而保留之前任务的关键知识。如对于在之前任务中对分类决策起关键作用的神经网络权重,赋予较大的权重,使其在新任务学习时不容易被改变。另一种方法是持续学习架构设计。可以设计具有多个子网络或模块的模型,每个子网络或模块负责特定任务或特定知识领域。当学习新任务时,激活相应的子网络进行学习,同时保持其他子网络的知识,实现知识的共享和隔离。

4、动态的一多表征


现实中,同一个概念或实体可以有多种表征形式,一张桌子可以用文字描述(如长方形、木质、有四条腿等),也可以用图像、三维模型等多种形式表征。而且这些表征形式之间的关系是动态变化的,会随着场景、任务等因素而改变。现实中,同一个概念或实体可以有多种表征形式,且这些表征形式之间的关系也是动态变化的,会随着场景、任务等因素而改变。目前的人工智能模型在处理这种动态的多表征时存在一定困难,难以有效地融合和转换这些表征。DARPA 推出了 TIAMAT、LINC 等项目应对 AI 辅助作战系统从模拟环境到实战环境的迁移能力问题,这些项目通过 “语义锚点” 将仿真中习得的策略安全转移至真实平台,实现任务执行、感知行为、作战规则等跨域耦合,以解决动态的一多表征问题。

多模态学习是解决这一问题的重要方向。通过建立多模态数据之间的关联,例如,将图像和文字描述的桌子关联起来,模型可以学习到不同表征之间的映射关系。可以利用跨模态注意力机制,让模型在处理一种表征时,能够关注到其他模态表征中的相关部分。研究动态表征融合策略。根据不同的任务和场景,动态地调整不同表征的融合方式和权重。例如,在进行室内场景的三维重建任务时,当有充足且高质量的图像数据时,可以更多地依赖图像表征;当有丰富的文字描述(如房间布局等)时,适当增加文字表征的融合权重。

5、弱相关的强相关化

在大量的数据中,可能存在一些弱相关的因素,这些因素之间的关系并不明显,但有可能通过人工智能技术挖掘出它们之间的强相关性。例如,在金融市场中,某些宏观经济指标和公司股票价格之间可能存在弱相关关系,但很难直接确定它们之间确切的影响机制,现有方法在挖掘和利用这种弱相关关系方面还不够成熟,DARPA 希望通过相关研究挖掘出这些弱相关因素之间的强相关性,从而为人工智能在更多领域的应用提供支持。


对此,数据挖掘和关联规则学习技术可以进一步发展。通过更复杂的算法,如基于深度学习的关联挖掘算法,从海量数据中挖掘潜在的弱相关因素之间的关联模式。例如,利用循环神经网络处理时间序列数据,挖掘不同时间序列之间的弱相关关系。还有因果推断方法的应用,不仅仅要关注相关性,还应试图挖掘因果关系。例如,通过构造因果模型,分析宏观经济指标和股票价格之间的因果路径,从而将弱相关关系转化为更具有实际意义的因果相关关系,用于更准确的预测和决策。

解决DARPA总结的AI五大瓶颈问题的关键,在于构建人机环境系统智能体系。通过整合人、机、环境三者的关系和交互,实现从可解释性到机器常识、终身学习、动态多表征与弱相关强相关化的全面突破。具体而言,人机环境系统智能体系能够借助人类的知识和经验增强AI的可解释性,利用人类的常识知识来弥补机器的不足,促进机器的持续学习能力,优化多模态信息的动态融合表征,并在复杂环境中挖掘弱相关的强相关性,从而推动AI从单纯的技术发展走向更加智能、灵活、可靠的人机协作与环境适应的综合体系。


网站公告

今日签到

点亮在社区的每一天
去签到