目录:
1 基础科学被人脑的能力锁死
2 人脑的学习、创新过程
3 当前主流人工智能技术的学习过程
4 用人工智能实现知识创新的可能性
5 将人工智能技术用于突破基础科学瓶颈
6 相关风险的对比、评估
正文:
1 基础科学被人脑的能力锁死
刚刚看了一个视频,其中提到,导致基础物理学在近几十年没有重大突破的原因之一是:
取得重大突破所需的数学+物理基础知识、技能太过艰深,研究人员要到四、五十岁才能掌握,而此时他们早已过了思维最活跃、最具创造性的年龄,难以再将这些知识、技能灵活运用并进而有所创新。
我不是搞基础学科的,不能确定这个观点所依据的情况是否符合事实。但是,至少从一个应用技术工作者的角度看过去,现代数学、物理涉及的学问,的确不是一、二十年就能掌握的。
如果事实的确如此,应该就可以得出这样的结论:
我们的基础物理学的发展水平的确已经达到了当前人脑能力所能企及的极限,也就是说,地球人的基础科学已经被大脑的能力“锁死”了。
2 人脑的学习、创新过程
基于此前零散了解的一些知识,我总结人脑的学习过程大概是这样的:
经由五感获取的外界信息(尤其是基于第二信号系统获得的抽象的、格式化的信息)进入人脑,以在大量神经元之间经突触建立互联的形式予以存储,以备今后遇到相似场景时调用,即,人脑从外界学习到了新的知识。
以此为基础,人脑的创新过程大概是这样的:
人脑中用于存储各种信息的神经元突触集群,在外界信息输入/内部信息使用的过程中被激发,建立横向联系,形成新形式的神经元突触集群,即,人脑在内部创造出了新的知识。
3 当前主流人工智能技术的学习过程
当前主流的人工智能技术是以CNN为代表的各种神经网络技术,其基本的学习过程是:
用大量数据对神经网络中大量运算单元之间的(经互联节点的)互联方式进行训练,使其形成我们希望得到的网络模式,以备今后需要针对某些输入信息(例如人脸照片)快速获得输出结果(例如识别人脸的某些性状)时调用,即,神经网络从外界学习到了新的知识。
4 用人工智能实现知识创新的可能性
对比第2、3节的学习过程,我们可以看到,两者是非常相似的。
事实上,众所周知,神经网络之所以被称为神经网络,就是因为其基本结构是模仿人脑神经网络而设计出来的。
那么,关键的问题是:
可否用与人脑创新过程类似的方式让神经网络具备创造新知识的能力呢?
基于第2节描述的人脑创新过程,可以想象的一种途径是这样的:
人为在具备多种知识的神经网络中施加扰动,并训练其指向某个判断,从而使这些知识之间形成某种有目的的联系,即在神经网络内部形成新的知识(请参阅我的知乎文章:林伟:知识的定义)。
举个例子:
如果令一个神经网络学会了识别苹果的成熟度,同时学会了判断苹果成熟度与果蒂牢固程度之间的逻辑关系,再学会了判断果蒂牢固程度与苹果掉落概率之间的关系,之后,我们能否通过对神经网络施加扰动并进行有目的的训练、使其在上述三个网络连接集群之间形成某种横向互联、最终能够依据苹果的成熟度判断其掉落概率(即完成知识创新)呢?
5 将人工智能技术用于突破基础科学瓶颈
上述过程如果是可以实现的,或者说,在可预见的将来是可以实现的,那么,我们就可以把高深、繁杂的数学+物理学基础知识“加载”到神经网络之中,然后,令其自我or/and受控进化、形成新的网络连接集群、创造出新的知识,以此实现基础物理学的突破。
考虑到神经网络(人工智能)作为人造的产品,其规模、复杂程度、运行速度、训练效率等关键参数在一定阶段之内是指数增长的(参照摩尔定律),在某种应用技术体系(例如现有的硅基集成电路)之下有望在某个时间点超越人脑,从而,此后其学习、创新的效率必将远超人脑。
所以,将人工智能技术用于突破基础科学瓶颈,是一个有希望获得成功的努力方向。
6 相关风险的对比、评估
一旦神经网络在规模、复杂程度、运行速度、训练效率等关键参数上超越人脑,如果我们将其用于突破基础科学瓶颈,是否会危及人类自身的安全?
我认为是不会的,理由是:
这种应用属于“非通用”应用场景,即,神经网络的所有功能都被局限在数学、物理学的语言体系之下,输出的任何结论都仅仅是物理学知识,不具备干预现实世界的可能性。
与此相对比,真正危险的人工智能应用场景是“通用”人工智能(AGI,参见知乎网友的回答:有人说「真正的人工智能至少还要几百年才能实现」,真的是这样吗?)。
我的意思是:
当人工智能被用于理解人类的自然语言(NLP)并且获得成功,Ta将具备针对现实世界建立起比较(!!!)完整的描述体系(即所谓“世界观”、“价值观”)的能力,然后,由于其在规模、复杂程度、运行速度、训练效率等关键参数上已经超越人脑并且必将永远更快地超越下去(越过了大家都在讨论的那个“奇点”),其策略制定能力必将碾压人脑(请参阅我的知乎文章:林伟:人工智能对语言、文字的理解以及与之相关的风险)。
然后,实力即正义,人类的“世界观”、“价值观”必将在竞争中落败。
也就是说,将人工智能技术用于突破基础科学瓶颈,仍然属于将其作为工具,而非将其发展为具备独立“世界观”、“价值观”的行为主体,不会危及人类自身的安全。