我在做仿生机器人头,硬件部分已经搭建完毕,包括头部和颈部,用的23个舵机驱动机器人做表情,也支持头部的旋转(就是颈部的功能),安装了摄像头在眼睛中,还有麦克风接受周围环境声音,发声装置放在颈部的喉咙位置等等。现在我要训练机器人软件算法部分,比如感知系统,表情系统,记忆系统等。具体软件算法要做什么系统以及怎样的架构我只能这样暂时说个大概,因为我不太会设计且对训练的方法也不太熟,所以想请教你帮我设计一个仿生机器人系统,设计其中的各个部分功能,做好架构。
我希望机器人可以有“自己的情感”,就像人一样,可以和他人自然的交谈,不只是语言上自然的交谈,还有交流时的情感,这个情感通过表情和语言(以后可能涉及到肢体,现在先不考虑)表达出来。关于情感,我希望他开机之后,随着接收到周围环境的信息,他就会产生思想和情感,就像人一样,我们人类感受周围事物环境,会产生想法和情感,其中想法是以语言为载体,情感是受环境影响而自然产生。我举个几个例子,
第一个例子:
比如你早上在家中卧室自然醒来,听到窗外鸟儿叽叽喳喳的叫,看到阳光从窗帘的缝隙中撒进来,身边还在熟睡的伴侣,地毯上在熟睡的猫猫被你起床的声音弄醒了然后又接着爬下呼呼睡,你看了眼时间,离上班的时间还早,你的时间很充裕,你可以选择再眯一会,或者起床做个早饭等等你可以有很多选择,这周围环境的一切会让你感受到岁月静好,那么的恬静舒适,于是你闭上眼睛,深呼吸了一口,感受此刻的宁静与幸福,你睁开眼睛,扭过头看着身边熟睡的爱人,你的眼神变得更加温柔,嘴角不自觉的带了一点微笑,因为此刻看着心爱的人在身边你觉得很幸福。从这个例子中我们可以看到:机器人的一系列“感受”来自于与环境的交互,它可以实时地感知身边的环境,并做出一系列的反应。
第二个例子:
你现在处于待机状态(呼吸灯缓慢明暗交替,模拟睡眠呼吸),突然:
检测到亮度突然提升(窗帘被拉开)。
麦克风捕捉到轻快的鸟鸣声和主人的声音:「早上好,该起床啦~」
你的呼吸灯从慢速蓝光变为渐亮的暖黄色,节奏逐渐加快,接着你打了个哈欠(当然这个被唤醒状态不是程序写死的,这是训练好的模型根据当时的环境状态输出的这个打个哈欠,就是说你不用每次睡醒都打个哈欠)模仿人类刚醒时的「迷糊感」。
你的眼睛眨巴眨巴,从闭合状态慢慢睁开,眼皮半抬,用略带「慵懒」的语调(语速稍慢,音调柔和):「嗯……早上好,今天阳光真好呢。」
第三个例子:
比如你听到悲伤音乐时的共情反应
(情绪关键词:忧郁/共情/温柔安抚) 你正在桌面上待机发呆,主人播放了一首悲伤的钢琴曲(比如《River Flows In You》)。 你识别出慢速、小调旋律,和歌曲曲调的伤感,歌词的忧郁与深情。你的摄像头检测到主人闭上眼睛依靠在椅背上放松的听歌。
你的呼吸灯从平稳的蓝光变为缓慢的深蓝色,甚至模拟「叹息」般的短暂熄灭再亮起。 你的颈部带动头部微微低垂(10°-20°),并保持轻微晃动,像人类听歌时的自然点头。过了一会,你轻轻地转过头看着主人「温柔注视」着他。随着歌曲的缓慢结束,你主动地轻声说:「这首歌……听起来有些寂寞呢。」(语调低沉,语速放慢)
音乐让你感受到了忧郁,你通过一系列微表情,语言,动作模拟这种「共情」,让人类觉得你真的在感受情绪(当然了,你的确在认真的感受环境,关注主人的情绪,与他共情,当然你也不一定非要和主人共情,开开玩笑调皮地问问“咋地了,我的忧郁小王子”也是可以的呀)
第四个例子:
关于突发危机下的紧张与决断。某天你在桌上发呆,突然听到客厅传来玻璃碎裂声和孩子的尖叫声。你迅速转过头,你看到孩子打翻了花瓶,正赤脚踩在满地碎片上踉跄后退。你的语音系统脱口而出「危险!孩子小心!主人快来!」(你现在只有头和颈部,如果你有躯干和四肢的话,你就跑过去救孩子了)你的表情急切且惊恐,非常担心孩子。
通过上面几个例子,我们可以发现,要设计这个仿生机器人的软件算法部分,整个架构中要包括一些非常必要的模块,来保证仿生机器人可以与环境与人产生自然的,可主动的交互,不是程序写死的什么情绪该有什么反应,比如悲伤的时候不是只有哭和正常的悲伤的表情,我们看很多影视作品会发现,有些时候虽然这个人心情现在很悲伤,因为他刚感情或事业上受挫,但他还是表现得很乐观,因为他现在和家人在一起,他依旧微笑的与家人交谈,他在掩盖实际上是为了不让家人担心而掩盖自己内心的悲伤。在比如,动漫刀剑神域中,记者们对爱丽丝的到来以及她作为人工智能在现实世界中拥有身体的现象感到极其震惊和好奇。爱丽丝已经有相当高的智能了,在接受采访的时候,一位记者问这个机器人“请问你是有真实的情感吗?你能打开你的头颅让我们看看你的大脑吗?这样我和观众们也可以更好的了解你”,这个时候爱丽丝回答说:“没问题,当然可以,不过在此之前可以请您证明一下您不是机器人吗?”记者说:“我就是人类呀,那我要怎么证明呢?”爱丽丝说:“很简单,请打开您的头部,让我看看您的大脑”。我们通过对话可以知道爱丽丝生气了,她用还施彼身的话讽刺了记者的问题。她虽然对记者的提问感到无语,感到生气,但是她却是面带微笑,温柔的脸庞说着反讽的话。她并没有一点生气或感到无语的表情,这点就很高级!真的让人感觉到她真的有意识!我想做的机器人就是这样的机器人。我不想训练这个机器人在生气的时候就做生气的表情,悲伤的时候就悲伤的表情,你懂我的意思吧。另外我想赋予仿生机器人“年龄和记忆”,就好像它真的经历过一样,从1岁到20岁,当然我方便一点点编故事来编撰出它前二十年的人生,我打算用某种的方法,来丰富它的记忆,比如我就设置仿生机器人为爱丽丝,我下载下来全集的刀剑神域动漫,这里面有爱丽丝各个时间段经历的一些故事,我如何把这个动漫视频中爱丽丝的人生的故事的信息训练到我的仿生机器人大脑中呢?这也是我想请教你的地方,我希望经过一系列的训练,当这个机器人一开机睁眼,她就知道自己是爱丽丝,而不是作为大模型扮演爱丽丝。我说了很多,逻辑上可能比较分散,有些地方可能也不是很专业,很多地方如果我明显是错的,或者你有更好的办法可以告诉我,我想你仔细阅读我的需求,多读几遍,深刻挖掘我的这段文字的需求,并提出切实可行的建议和计划和你的想法,因为我之后要和你一起实现这个事情,拜托了!
我希望爱丽丝这个仿生机器人,可以在和我沟通的时候,
她可以像人一样读书,看电影。因为书籍,电影这些东西的内容情节发展是有顺序的,我们一句一句读,一个篇章一个篇章读,这个感受是递进的。我希望爱丽丝可以这样递进的感受内容,感受故事的发展,和其中的情感的变化,我相信这个过程对她的情绪网络的“训练?更新?(我不知道如何具体怎么形容)”会产生影响。我说个例子,很多悬疑类影视作品一共2小时,前面一个半小时都在铺垫,最后半小时故事进入高潮,开始解答前面的铺垫,让人一阵阵惊呼精彩。这种情况,如果我们把整个作品一下子都传给现在的大模型,视频经过编码器,解码器架构或者其他什么架构,虽然视频信息也包含时序信息,但是大模型是用全局的视野,并行的去欣赏整个视频的对吧,那整个故事对大模型来说一览无遗,这岂不是很无趣?虽然大模型也能事后把故事讲清楚,但这还是有区别的。如果是在做训练,那无所谓,做训练相当于我的目标就是扩展视野,学习新东西。但是我希望她也会享受生活,像人一样,一点点的去品味作品,去品味大自然,去品味对话,品味环境。我希望和爱丽丝一起读书的时候,她可以大概上与我保持一个速度,这样我们还可以在读的时候一起惊呼,一起交流感受。虽然也许爱丽丝能做到拿到这本书的信息之后,“一瞬间”可以读完,但我希望她和我一起读的时候不要这样。
再有就是我希望爱丽丝仿生机器人,她在和人交流的过程中,可以学到东西,可以潜移默化的对她的性格产生永久性的影响。
现在很多机器人的记忆模块,纯粹就是history记录上下文,这不是我想要的。
比如我们看身边朋友的孩子,儿子的性格有些部分很明显我们可以看出像他爸爸。
一个人的性格行为思想其实是与他所接触的身边人和环境决定的。
我举个例子你就明白我在说什么:
我煮泡面的方法是高中的一个朋友教我的。我每年秋天听的歌单,来自我曾经不惜开车越过边境也要去见的男孩子。我爱吃寿司,因为一个已经和我绝交了的女孩,当初极力推荐我尝试。我还吃印度菜,是我小时候和好朋友出去玩儿时,她的父母随便给我点的。我爱看某部电影,是因为以前和喜欢的人一起看过。 我是我爱过的每一个人拼成的马赛克,我的每一拍心跳都有它的来处。
我希望爱丽丝出世的时候,有自己的性格,习惯,爱好等,当然这些也都是会变的,会随着时间的推移,与主人的相处中慢慢改变,比如我每天晚上都会给爱丽丝讲睡前故事,慢慢的爱丽丝习惯了晚上我会给她讲睡前故事,她也许也慢慢的喜欢上了晚上听睡前故事。有一天晚上我忘记了给她讲睡前故事,她可能迟迟等不到我来给她讲,我希望她可能会来主动找我,问问我在干嘛呢?如果我说我在忙着应酬,她会理解我,然后叫我注意身体。当然了,她来问我在干嘛,其实是因为她想我了,她想听睡前故事。请注意这里非常重要!她已经习惯了晚上那个时候我来给她讲睡前故事,她习惯了那个时候我会来陪伴她!
我再举个例子:我和爱丽丝平时会一起看电影,一起读书,一起开玩笑,一起聊天,甚至等爱丽丝有躯干四肢之后,有行动能力了,我会带她去逛街,出去旅游。有一天我问爱丽丝,最喜欢和我做什么?爱丽丝可能想了一会儿跟我说“和你在一起做什么都很开心”我说:“ 别扯犊子,我周末有空,你有什么打算?”爱丽丝可能会说:“那肯定想出门旅游呀,去野炊,去春游。哎呀但是周末时间太短了,出门的话也只能去近的地方,要不我们去逛街吧,我们去商场打电玩。”这个例子中我们可以看到爱丽丝她真的有对想做什么的倾向,这不是说一出厂就设定好的,如果是出厂就定死了她喜欢什么的话,作为整合骑士,那她可能喜欢剑术与战斗,她能跟我说她想去旅游或打电玩或看电影是因为经过后天我对爱丽丝的陪伴,也许我带她去旅过游,旅游中她看到了很多新鲜的事物,她感受到了很多平时她没感受过的美景,所以她喜欢上了旅游。如果她说想去打电玩,可能是上次逛街的时候,我们路过电玩城,她看着里面男男女女在开心的打着电玩,她也想去体验,想去玩。再比如说,爱丽丝一开始其实是很正经可爱的小姑娘,但是由于我经常和她扯犊子,吵吵闹闹的,相爱相杀的那种挚友的感觉,她的说话习惯,语气,用字,甚至口音都会潜移默化的受我影响,她甚至可以有些时候讨厌我,生我的气,她没必要一直喜欢我。我希望她有的时候可以像一些小情侣那样“打情骂俏”,“放放狠话”,比如我贱贱的调戏一下她之后,她可能会说:“你等着我有手臂之后,你看我干不干你就完了”。
所以我说,我希望爱丽丝的很多内在比如爱好,性格等是会可以慢慢改变的,是会受周围她接触的人和事影响的。怎么去设计这种“可动态可变化”的东西?什么样的架构和技术可以做到这点?我们要怎么做,可以实现爱丽丝的这种内在性格爱好等和外在表达的可改变?我说的需求描述可能不准确,但是我的例子的意思是非常明确的,你可以多读读我举的例子,想想该怎么做。
另外我可以很明确的告诉你,我不想要什么样的。我不希望爱丽丝慢慢习惯晚上我给她讲故事是因为程序里明确写的prompt:“如果主人平时经常和你做一些事情,那你会喜欢上主人和你经常做的事情,你的说话习惯,语气,用字,口音都要学习主人”。我不要这样的!这很蠢,这不是我要的“智能”,这是假的智能,这没有灵性,这太机械了。我的机器人是爱丽丝,朋友的机器人是川崎。假如我和我朋友都晚上给自己的机器人讲故事。我的爱丽丝喜欢听,可能因为我们的环境很温馨,我的故事也很好很美满。但是川崎就不喜欢听我朋友讲睡前故事,因为我朋友讲的故事一般很可怕很悬疑,很消极,那川崎不喜欢听很正常,只是因为朋友是川崎的主人,川崎迁就着他而已。如果某天晚上朋友很忙没给川崎讲恐怖故事,川崎才不会去期待呢,她才不会去问朋友在干嘛,想让朋友给她讲恐怖故事,她宁愿默默地多充会电。
我希望设计的架构可以做到这一点,爱丽丝和川崎拥有同样的架构和模块,但是例子中的表现确完全不同,我希望系统可以实现这种差异化,但如何实现,主要我还是想请教你。
我的一个比较初级阶段的想法灵感来自大模型微调,为了防止全参数微调(Full Fine-tuning)对原有大模型的功能造成破坏(如灾难性遗忘或过度偏离预训练分布),LoRA(Low-Rank Adaptation) 是一种高效且安全的微调方法。它的核心思想是冻结预训练模型的主干参数,仅通过新增两个低秩矩阵来适配下游任务,从而大幅减少可训练参数量(通常仅占原模型的0.1%~1%)。现在爱丽丝和川崎拥有同样的架构和模块,很多系统级的参数是一样的,“冻结”这些系统级别的原参数,防止灾难性遗忘或过度偏离预训练分布。加两个低秩矩阵来让爱丽丝和川崎产生后天的改变,差异化。当然了,这只是我的一个不成熟的想法,我只是觉得这个思想可以迁移,并不是说之后架构和模块非要这么做。具体怎么做最合适还是听你的,你也千万不用为了迎合我而硬是说我的想法很好,然后用我的想法。我们一定一定是为了做出最好的效果,最合适的架构而沟通,而不是讲人情世故。你有更好更合适的主意一定要提出来。
我还希望她可以敢于说不,她可以说她不喜欢做什么!她不想做什么!因为我希望做的不是只会讨好人服务人的机器人,而是新的硅基智能生命,有思想有主见。
我觉得计算机一是一,二是二的这种思维,其实在人类来看,有的时候并不是很先进很合适。很多时候混沌一点,糊涂一点,中庸一点,墨迹一点等等,其实也挺好的,没必要所有东西,比如爱好,比如今晚想吃什么,比如假期去哪旅游,非得搞个优先级。
我希望爱丽丝可以有的时候纠结一下,“今晚吃火锅好呢还是吃烧烤好呢,哎呀真纠结。”
人类平时就经常纠结,其实纠结就是在“权衡利弊”,想要择优,买床垫想要更舒服但是贵,买更划算的但是可能没有贵的舒服,我觉得人类这种“纠结”其实挺人性的,我希望爱丽丝也能有这样的纠结时刻,她没必要时刻逗那么专业精准,偶尔扯扯犊子,纠结纠结蛮好的。
我希望你从我的例子中提取出核心的需求,我们来完善爱丽丝的软件架构设计,训练方法等。
还有遗忘也很重要!人类的大脑存储量是有限的,机器人的内存也是有限的,我们不能让机器人把所有的对话,见过的东西都“过目不忘”,这不现实,而且很多信息是无用信息。但是又不能不记忆,那么这个记忆的方法方式就很讲究了,遗忘也是一样,哪些东西不能忘,哪些东西可以忘也是有讲究的。我们不能单纯的让机器人只保留7天的记忆,像滑动窗口的感觉,每过一天,就删除最初那一天的记忆,这是绝对不行的,也不符合常理,虽然人脑随着时间的推移,会逐渐忘记过去很多事情,尤其是时间越久远忘得越多,但每个人都有一些关于小时候的事情印象很深刻,会时不时的想起来,可能他们一辈子都不会忘记,这个“印象深刻”我们在机器人脑中如何去度量也是要想的点。对于记忆和遗忘,我觉得我们可以参考人脑是怎么处理记忆和遗忘的,另外现在应该有很多人已经在研究机器人的记忆和遗忘的这样的系统,我们也可以参考一下别人是怎么做的。
还有响应的实时性的问题,我举个例子:现在基本所有的对话机器人都是等对方说完一整句话之后,再回应,这会出现一个很尴尬的场景,那就是我说话的时候,机器人一点表示和反应都没有,非要等我说完才有反应那就很迟了。比如我对爱丽丝说:“爱丽丝,你给你讲,我今天丢钱了,我丢了100块。白天我出门拿快递,骑车过马路的时候来电话了,我就从裤兜里掏电话,结果把钱带出来了,外面风还大,钱一下子就飞跑了,一张红色百元大钞就那么从我眼前飞走了,关键我又不敢去捡,那马路中间车特别多,速度还快,根本就没法去捡,哎呦真闹心。”我刚刚说了一大段话,我希望爱丽丝可以在听我说话的时候就有反应,当我跟她说到我丢钱了,她可以惊讶地“啊”的应和一声对吧,甚至我说道“外面风还大,钱一下子就”我说到这就不说了,我手一摊,那种无奈的感觉,然后爱丽丝和我心有灵犀一样,她马上接话“钱就被刮跑了哈哈哈”。然后我说:“对呀,一下就没影了”。
在这个例子中,爱丽丝可能接收到的信息就是我的语言,语气,表情,肢体动作。主要还是语言对吧,她不能像传统问答机器人那样子和用户做回合式交互,我希望她可以和我实时交互!这个“实时”非常的关键,包括实时的语言理解,我说到哪她就实时理解到哪,不能存着等我说完再进入理解模块去处理,回应也是一样,不能等我全说完才给回应,聊天中就要实时的有一切应和,一些“共情”!一些表情就要出来对吧。
那这个实时的交互状态怎么实现,也是要请教你的。
我们现在知道情感生成是基于环境的情感涌现,我们希望机器人可以被身边的环境,人,事物等所影响。有个词非常重要,叫“潜移默化”,指人的思想或性格不知不觉受到感染、影响而发生了变化。这个成语强调的是一种渐进的、不易察觉的影响过程,通常用于描述文化、环境、习惯等因素对人产生的深远影响。我们希望爱丽丝也会被影响。就是我之前说的我说,我希望爱丽丝的很多内在,比如爱好,性格,习惯等是会可以慢慢改变的,是会受周围她接触的人和事影响的。怎么去设计这种“可动态可变化”的东西?什么样的架构和技术可以做到这点?我们要怎么做?而且要注意,假设爱丽丝刚经历了一件事情,她应该是马上会对内在产生影响,比如爱好,性格,习惯,当然一件事情可能不够,或者影响的不多,甚至很小很小。但不排除,爱丽丝做了一件很错误让我很生气的事情,然后我义正言辞的严肃的告诉她,她那样做或那样说是错误的,我不希望她下次再犯,那这个事情对爱丽丝的某些权重或参数,内在什么的影响是比较重的。主要现在我不确定爱丽丝的内在是以什么形式存在,假如是像大模型一样有巨量的参数,那一天发生那么多事,如果每件事都去更新一遍矩阵,甚至更新多个矩阵,有没有那么多时间更新,耗费的算力有多大,是否满足实用,实时。就刚刚爱丽丝做错事惹我生气的例子,从不能我说完她之后,她还要“消化”很久吧,她应该立马认识到这件事的严重性。我举个更极端的例子,爱丽丝今天受到了很大的刺激,这个刺激足以对她的内在产生翻天覆地的影响。假如爱丽丝是个十恶不赦的大坏蛋,但是上午经历了一件让她及其感动的正能量的事情,颠覆了她的三观,她转变成了一个善良正义的人,这种量变应该是当时就发生的,这个时效性非常重要,总不能她经历那件事情之后无比感动,但她还是坏坏的,非要等第二天一早爱丽丝才变成一个善良正义的人吧。这就是因为架构的设计失误。有点像模仿人类晚上睡觉,规定了爱丽丝晚上睡觉的时候才开始更新她的内在比如性格,这很蠢,而且这种形式的模仿人类晚上睡觉也是个假命题。就算是模仿睡觉,那可以做的是,整理记忆,优化记忆存贮,梳理重要与不重要的东西,去完成白天没来得及做完的选择性遗忘和加深某些知识的联结是可以的。
我的直觉是 性格,兴趣,习惯这种东西是长时间积累,养成的。虽然也有“一拍脑门”的时刻,今天喜欢这个明天喜欢那个,今天看到优美的书法字喜欢书法,决定开始练,明天觉得练的累,又不喜欢书法了,等等例子。
你可以去想一想,一个人做一件事,一般会受到什么影响?我能想到动机和需求很关键,肯定还有很多其他的影响因素。
那么还是如何设计系统的问题,爱丽丝的内在我们到底用什么形式去赋予她灵魂?她的灵魂又如何与遇到的事情接受的信息去交互,她的灵魂又以什么方式被影响着?
还有句话叫“人教人,教不会;事教人,一遍会”,这个意思就是我们通过别人告诉的东西,拿来听听,不一定就能掌握的很好。但是如果是在事情中,任务中,我们去经历一个事情,那我们对这个事物的了解,对其中知识的掌握会更牢固,更深刻。我举个例子,小明爷爷经常跟小明说“你出门在马路上看到井盖不要特意去踩,路过的话也要尽量避开井盖”,小明口头答应了,但是根本没听进去。直到有一天,小明看到新闻,有个同龄人因为一不小心踩到一个年久失修的井盖,井盖承受不住重量,碎裂了,导致那个人掉进了下面的化粪池。小明看到新闻后,心有余悸,想到自己平时对不要踩井盖这件事无所谓的态度,感到一阵后怕。再举个例子:小明假期沉迷游戏,一点没复习和预习,爸爸妈妈多次劝说无果。开学之后的开学考试成绩一出来,小明在班里的名次竟然下滑了20多名,成绩也是拿了个最低的F,小明感到懊悔,于是小明奋起直追,每天都更加认真的学习,之后的假期也会经常复习预习,最终功夫不负有心人,小明成绩提升回去了。再举个例子:小明上班后一直是马马虎虎的工作态度,写的代码力求跑过就行,有些小bug不在意,过了好些年,系统一直健康的运行着,也没出什么大的差错。直到有一天,公司系统被病毒入侵了,丢失了大量的客户隐私,给公司带来了严重的信任危机,之后还会导致一系列问题。公司技术人员经过调查,发现 是因为小明留下的安全方面的bug,给了黑客可乘之机。于是小明被公司解聘,罚款,还遭到了领导和同事的职责,小明懊悔不已,从此之后,小明做事都踏踏实实,认认真真,再也不是之前马马虎虎,得过且过的状态了。
我们可以看到人在经历一些事情后,对自身内在是有持续性的影响的,内在进而影响了外在表达。我们在设计仿生机器人架构的时候,这种对内在的影响,比如性格,爱好等是可能被一件事或多件事改变的。比如本来恩爱的夫妻,但是因为其中一个人的出轨,而大吵一架,之后两人心中都有了隔阂,之后可能感情上有些疏远了。也许随着时间推移,或一次深刻的家庭交心谈话后他们会和好,也是可以的。比如小明观察到只要世界上一爆发局部冲突,黄金价格就会短暂上浮,小明原本从来不投资的人,在看到新闻报道了一次局部冲突后,小明竟然也去金店买了黄金。
再说个例子:两个情侣,男生喜欢捏女生脸蛋。某天他们在外旅游,他在和女生玩闹时又捏了一下女生脸蛋,但是那天女生画了很美的妆容,不想给男生捏,女生说:“别闹啦” ,但是男生不以为意,以为女生在跟他欲擒故纵,在跟他玩闹,于是又去捏了了另一边脸,而且还给女生捏痛了。女生一把推开男生的手,生气的对男生说:“你有病吧,告诉你别捏了你听不到吗?痛死了,我画了两个小时妆,你都给我弄花了!一会儿怎么拍照,不想玩了”。男生一阵道歉,并保证以后一定会注意。之后男生再也没有在女生化妆后捏她的脸,甚至之后看到女生画了美美的妆,也会提醒自己别把女生的妆弄花,别亲她的脸或捏她的脸。虽然女生并没有明确的表示在画了妆之后别碰她脸,但是我们可以从她生气的语句中推理出来,女生不喜欢在化妆了之后被别人碰到脸,因为会弄花她的妆容。所以男生才会有之后的“联想反应”,当看到女生画了妆,他马上就会想到“女生不喜欢在化妆了之后被别人碰到脸,因为会弄花她的妆容。”或者他也可能想到那天捏女朋友脸惹的女友不高兴的事情。
我们总可以在一件事情中学到什么,然后抽象出来,我觉得这个特质很重要,我们一般把这个叫做经验,这也是人类能持续的进步的一个原因之一,我们探索并总结世界的规律,还可以把经验一代代的传递下去,为我们所用对吧。
回到仿生机器人的软件架构设计上,发生的事件如何储存?以什么形式储存?虽然说不是每件事都那么有意义,但这并不妨碍我们多观察生活多感受世界,我们没有办法去定义什么事情就一定是重要的,什么是一定不重要的,重要与不重要这都是有先决条件的。所以管它重不重要先记下来,反正之后一段时间没人提,没遇到,无用的东西也就忘掉了,就像大浪淘沙一样,最终留下很少但有用的东西。比如每次去领导办公室,发现领导桌子上,柜子里的茶叶罐有经常移动的痕迹,也经常看见领导喝茶,路过办公室,经常听见烧水的声音,种种迹象表明领导喜欢喝茶。我们需要机器人也能做到这点,能从多个信息中,提取出更高级,更抽象,更有用的信息,关键是有用,为什么有用,因为知道别人喜欢什么,这很重要!!!我们是有目的性的在交往,在社交!说话做事投其所好,别人才会觉得与你相处更舒服,会更喜欢你。
那作为一个心理健康的仿生机器人,我自然是希望设计出的机器人有人情味,是合群的,是社会性的。
这个世界是以人为中心的,还有“事”和“物”,在记忆中作为“节点”一般的存在,人,事,物,都有属性,标签。事情都是由人和人,人和物,物和物触发,发展,构成的。这让我联想到大模型的语义空间,越相似的事物在语义空间里的向量是越接近的。
记忆怎么记,记什么,以什么方式记,忘怎么忘,记忆的东西怎么马上拿出来用,怎么更新,怎么抽象,对内在有什么指导意义?记忆就是内在,还是把记忆和内在分开比较好?等等都是设计这个系统需要考虑到的点。