具身智能模型的学习方式像儿童一样
日本冲绳科学技术研究所的具身认知神经机器人团队开发了一种新颖架构的具身智能模型。这种模型允许科学家访问神经网络中的模型多种内部状态,并且能够以类似人类儿童的习方方式来学习和泛化知识,揭示了神经网络在认知发展和信息处理中的式像关键信息。这项成果已发表于最新的儿童《科学·机器人学》杂志上。
大型语言模型(LLM)对人工智能(AI)至关重要,具身这些模型主要依赖于大量的模型数据集,但在处理有限信息时无法像人类那样有效地进行泛化。习方而具身智能是式像一种基于物理实体进行感知和行为的智能系统。它通过智能体与环境互动来获取信息、儿童理解问题并作出决策,具身在此过程中还能执行行动。模型
此次具身智能模型借鉴了预测编码理论,习方采用变分递归神经网络结构。式像通过融合视觉、儿童本体感觉和语言指令这三种感官输入来进行训练。具体来说,该模型接收了如下类型的信息:观看机械臂移动彩色块的视频;体验人体四肢运动的感觉以及观察到机械臂在行动时的角度变化;并且还处理了如“把红色物体放在蓝色物体上”的语言指令。
该模型的设计理念源自大脑,它会利用过去的体验来预测感官输入,并通过执行动作以减少预测结果与实际观察之间的差异。由于工作记忆和注意力都较为有限,因此必须按顺序处理这些输入并逐步更新预测结果,而非像LLM那样一次性处理所有信息。
研究发现,新模型只需要较小的训练集以及较少的计算资源就能完成泛化学习任务。虽然它的错误率较LLM高一些,但这类错误更贴近于人类的失误。
这意味着,将语言与行为结合起来可能对儿童的语言学习至关重要。这种体态智能不仅能提高透明度,还可以更好地理解AI的行为表现,从而为未来更安全、更符合伦理标准的AI发展提供了指导方向。
这项研究为理解并模拟人类认知提供了一种新方法,强调了整合多感官信息对实现高效泛化能力的重要性。这种方法不仅能促进更智能化、更灵活的人工智能系统的发展,还为认知科学研究贡献了宝贵的视角和洞察。