Long Term Memory: The Foundation of AI Self-Evolution
像 GPT 这样的大型语言模型 (LLMs) 在庞大的数据集上进行了训练,在语言理解、推理和规划方面表现出了令人印象深刻的能力,在各种任务中实现了人类水平的表现。大多数研究都侧重于通过在越来越大的数据集上进行训练来构建更强大的基础模型来增强这些模型。虽然训练更强大的模型很重要,但使模型能够在推理过程中进化也同样重要,我们称之为 AI 自我进化。与大规模训练不同,自我进化可能依赖于有限的数据或交互。受人类大脑皮层柱状组织的启发,我们假设 AI 模型可以通过与环境的迭代交互来发展认知能力并构建内部表征。为此,模型需要长期记忆 (LTM) 来存储和管理已处理的交互数据。LTM 通过表示跨环境和代理的不同体验来支持自我进化。在本报告中,我们探讨了 AI 自我进化及其在推理过程中增强模型的潜力。我们研究了 LTM 在终身学习中的作用,允许模型根据积累的交互进行发展。我们概述了 LTM 的结构以及有效数据保留和表示所需的系统。我们还对使用 LTM 数据构建个性化模型的方法进行了分类,并展示了这些模型如何通过交互实现自我进化。使用 LTM,我们的多智能体框架 OMNE 在 GAIA 基准测试中获得了第一名,展示了 LTM 在 AI 自我进化方面的潜力。最后,我们提出了未来研究的路线图,强调了 LTM 对于推进 AI 技术及其实际应用的重要性。https://arxiv.org/abs/2411.07598
HuggingFace&Github01
TinyTroupe
TinyTroupe 是一个基于 Python 的实验性库,允许模拟具有特定性格、兴趣和目标的人工智能代理(TinyPersons),利用大型语言模型(如 GPT-4)生成逼真的模拟行为。这个项目希望可以增强人类的想象力,并为业务洞察力提供支持,包括广告评估、软件测试、数据生成和产品管理等应用场景。https://github.com/microsoft/TinyTroupe 推荐阅读 — END —1. The theory of LLMs|朱泽园ICML演讲整理