Memori:为LLM、AI智能体和多智能体系统提供开源记忆引擎

你是否曾经为大型语言模型缺乏持久记忆而烦恼?每次对话都要重新提供上下文,既低效又昂贵。Memori 的出现,旨在彻底解决这个问题。它是一个基于SQL的开源记忆引擎,只需一行代码就能为任何LLM提供持久化、可查询的记忆能力。本文将带你全面了解这个潜力新星。

截至收录:
Memori项目stars数:5197
Memori项目forks数:392

Memori项目目录截图

Memori项目核心亮点

🌟 一行代码集成:只需调用 memori.enable(),即可为任何LLM框架添加持久记忆功能。
🎯 SQL原生存储:使用标准SQL数据库(SQLite、PostgreSQL、MySQL),完全掌控数据,零供应商锁定。
💰 成本节省80-90%:无需昂贵的向量数据库,使用现有SQL基础设施即可实现智能记忆。
🧠 智能记忆管理:自动实体提取、关系映射和上下文优先级排序,让LLM真正”记住”重要信息。

Memori项目快速开始

只需几步,你就能为LLM添加持久记忆:

  1. 安装
    pip install memorisdk
  2. 基础使用
    from memori import Memori
    from openai import OpenAI
    # 初始化记忆引擎
    memori = Memori(conscious_ingest=True)
    memori.enable()
    
    client = OpenAI()
    # 第一次对话 - 模型会记住内容
    response = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[{"role": "user", "content": "我正在构建一个FastAPI项目"}]
    )
    # 后续对话 - Memori自动提供上下文
    response = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[{"role": "user", "content": "帮我添加身份验证功能"}]
    )
    # LLM自动知道你的FastAPI项目背景
    

Memori项目应用场景

场景一:个人AI助手:构建能够记住用户偏好、习惯和历史的智能助手,提供个性化服务。
场景二:多轮对话系统:客服机器人和技术支持系统能够记住整个对话历史,提供连贯的服务体验。
场景三:多智能体协作:在AutoGen、CrewAI等多智能体系统中,实现智能体间的记忆共享和上下文传递。
场景四:企业知识管理:将企业文档、会议记录等结构化存储,供LLM在需要时智能检索和使用。

用户案例:目前,Memori已集成到AgentOps、Agno、AWS Strands、Azure AI Foundry、AutoGen、CamelAI、CrewAI等主流AI框架和平台中。

Memori项目链接

GibsonAI / Memori项目地址:https://github.com/GibsonAI/Memori

本文地址:https://www.tgoos.com/24065

声明:本站资源均整理自互联网,版权归原作者所有,仅供学习交流使用,请勿直接商用,若需商用请购买正版授权。因违规使用产生的版权及法律责任由使用者自负。部分资源可能包含水印或引流信息,请自行甄别。若链接失效可联系站长尝试补链。若侵犯您的权益,请邮件(将 # 替换为 @)至 feedback#tgoos.com,我们将及时处理删除。转载请保留原文链接,感谢支持原创。