Ombre Brain

一个给 Claude 用的长期情绪记忆系统。基于 Russell 效价/唤醒度坐标打标Obsidian 做存储层MCP 接入,带遗忘曲线和向量语义检索。

A long-term emotional memory system for Claude. Tags memories using Russell's valence/arousal coordinates, stores them as Obsidian-compatible Markdown, connects via MCP, with forgetting curve and vector semantic search.

⚠️ 备用链接 / Backup link Gitea 备用地址GitHub 访问有问题时用): https://git.p0lar1s.uk/P0lar1s/Ombre_Brain


快速开始 / Quick StartDocker Hub 预构建镜像,最简单)

不需要 clone 代码,不需要 build三步搞定。 完全不会?没关系,往下看,一步一步跟着做。

第零步:装 Docker Desktop

  1. 打开 docker.com/products/docker-desktop
  2. 下载对应你系统的版本Mac / Windows / Linux
  3. 安装、打开,看到 Docker 图标在状态栏里就行了
  4. Windows 用户:安装时会提示启用 WSL 2点同意重启电脑

第一步:打开终端

系统 怎么打开
Mac ⌘ + 空格,输入 终端Terminal,回车
Windows Win + R,输入 cmd回车或搜索「PowerShell」
Linux Ctrl + Alt + T

打开后你会看到一个黑色/白色的窗口,可以输入命令。下面所有代码块里的内容,都是复制粘贴到这个窗口里,然后按回车

第二步:创建一个工作文件夹

mkdir ombre-brain && cd ombre-brain

这会在你当前位置创建一个叫 ombre-brain 的文件夹,并进入它。

第三步:获取 API Key免费

  1. 打开 aistudio.google.com/apikey
  2. 用 Google 账号登录
  3. 点击 「Create API key」
  4. 复制生成的 key一长串字母数字待会要用

没有 Google 账号也行API Key 留空也能跑,只是脱水压缩效果差一点。

第四步:创建配置文件并启动

一行一行复制粘贴执行:

# 下载用户版 compose 文件
curl -O https://raw.githubusercontent.com/P0luz/Ombre-Brain/main/docker-compose.user.yml
# 创建 .env 文件——把 your-key-here 换成第三步拿到的 key
echo "OMBRE_API_KEY=your-key-here" > .env
# 拉取镜像并启动(第一次会下载约 500MB等一会儿
docker compose -f docker-compose.user.yml up -d

第五步:验证

curl http://localhost:8000/health

看到类似这样的输出就是成功了:

{"status":"ok","buckets":0,"decay_engine":"stopped"}

浏览器打开前端 Dashboardhttp://localhost:8000/dashboard

如果你用的是 docker-compose.user.yml 默认端口,地址就是 http://localhost:8000/dashboard。 如果你改了端口映射(比如 18001:8000),则是 http://localhost:18001/dashboard

看到错误? 检查 Docker Desktop 是否正在运行(状态栏有图标)。

第六步:接入 Claude

在 Claude Desktop 的配置文件里加上这段Mac: ~/Library/Application Support/Claude/claude_desktop_config.json

{
  "mcpServers": {
    "ombre-brain": {
      "type": "streamable-http",
      "url": "http://localhost:8000/mcp"
    }
  }
}

重启 Claude Desktop你应该能在工具列表里看到 breathholdgrow 等工具了。

想挂载 Obsidian 用任意文本编辑器打开 docker-compose.user.yml,把 ./buckets:/data 改成你的 Vault 路径,例如:

- /Users/你的用户名/Documents/Obsidian Vault/Ombre Brain:/data

然后 docker compose -f docker-compose.user.yml down && docker compose -f docker-compose.user.yml up -d 重启。

后续更新镜像:

docker pull p0luz/ombre-brain:latest
docker compose -f docker-compose.user.yml down && docker compose -f docker-compose.user.yml up -d

从源码部署 / Deploy from SourceDocker

适合想自己改代码、或者不想用预构建镜像的用户。

前置条件: 电脑上装了 Docker Desktop,并且已经打开。

第一步:拉取代码

(💡 如果主链接访问有困难,可用备用 Gitea 地址:https://git.p0lar1s.uk/P0lar1s/Ombre_Brain)

git clone https://github.com/P0luz/Ombre-Brain.git
cd Ombre-Brain

第二步:创建 .env 文件

在项目目录下新建一个叫 .env 的文件(注意有个点),内容填:

OMBRE_API_KEY=你的API密钥

🔑 推荐免费方案Google AI Studio

  1. 打开 aistudio.google.com/apikey,登录 Google 账号
  2. 点击「Create API key」生成一个 key
  3. 把 key 填入 .env 文件的 OMBRE_API_KEY= 后面
  4. 免费额度(截至 2025 年,请以官网实时信息为准):
    • 脱水/打标模型gemini-2.5-flash-lite):免费层 30 req/min
    • 向量化模型gemini-embedding-001):免费层 1500 req/day3072 维
  5. config.yamldehydration.base_url 设为 https://generativelanguage.googleapis.com/v1beta/openai

也支持 DeepSeek、Ollama、LM Studio、vLLM 等任意 OpenAI 兼容 API。

Recommended free option: Google AI Studio

  1. Go to aistudio.google.com/apikey and create an API key
  2. Free tier (as of 2025, check official site for current limits):
    • Dehydration model (gemini-2.5-flash-lite): 30 req/min free
    • Embedding model (gemini-embedding-001): 1500 req/day free, 3072 dims
  3. Set dehydration.base_url to https://generativelanguage.googleapis.com/v1beta/openai in config.yaml Also supports DeepSeek, Ollama, LM Studio, vLLM, or any OpenAI-compatible API.

没有 API key 也能用,脱水压缩会降级到本地模式,只是效果差一点。那就写:

OMBRE_API_KEY=

第三步:配置 docker-compose.yml(指向你的 Obsidian Vault

用文本编辑器打开 docker-compose.yml,找到这一行:

- ./buckets:/data

改成你的 Obsidian Vault 里 Ombre Brain 文件夹的路径,例如:

- /Users/你的用户名/Documents/Obsidian Vault/Ombre Brain:/data

不知道路径?在 Obsidian 里右键那个文件夹 → 「在访达中显示」,然后把地址栏的路径复制过来。 不想挂载 Obsidian 也行,保持 ./buckets:/data 不动,数据会存在项目目录的 buckets/ 文件夹里。

第四步:启动

docker compose up -d

等它跑完,看到 Started 就好了。

验证是否正常运行:

docker logs ombre-brain

看到 Uvicorn running on http://0.0.0.0:8000 说明成功了。

浏览器打开前端 Dashboardhttp://localhost:18001/dashboarddocker-compose.yml 默认端口映射 18001:8000


接入 Claude.ai远程访问

需要额外配置 Cloudflare Tunnel把服务暴露到公网。参考下面「接入 Claude.ai (远程)」章节。

接入 Claude Desktop本地

不需要 Docker直接用 Python 本地跑。参考下面「安装 / Setup」章节。


Deploy to Render Deploy on Zeabur Docker Hub


它是什么 / What is this

Claude 没有跨对话记忆。每次对话结束,之前聊过的所有东西都会消失。

Ombre Brain 给了它一套持久记忆——不是那种冷冰冰的键值存储,而是带情感坐标的、会自然衰减的、像人类记忆一样会遗忘和浮现的系统。

Claude has no cross-conversation memory. Everything from a previous chat vanishes once it ends.

Ombre Brain gives it persistent memory — not cold key-value storage, but a system with emotional coordinates, natural decay, and forgetting/surfacing mechanics that loosely mimic how human memory works.

核心特点 / Key features:

  • 情感坐标打标 / Emotional tagging: 每条记忆用 Russell 环形情感模型的 valence效价和 arousal唤醒度两个连续维度标记。不是"开心/难过"这种离散标签。 Each memory is tagged with two continuous dimensions from Russell's circumplex model: valence and arousal. Not discrete labels like "happy/sad".

  • 双通道检索 / Dual-channel search: 关键词模糊匹配 + 向量语义相似度并联检索。关键词通道用 rapidfuzz 做模糊匹配;语义通道用 embedding默认 gemini-embedding-0013072 维)计算 cosine similarity能在"今天很累"这种没有精确关键词的查询里找到"身体不适"、"睡眠问题"等语义相关记忆。两个通道去重合并token 预算截断。 Keyword fuzzy matching + vector semantic similarity in parallel. Keyword channel uses rapidfuzz; semantic channel uses embeddings (default gemini-embedding-001, 3072 dims) with cosine similarity — finds semantically related memories even without exact keyword matches (e.g. "feeling tired" → "health issues", "sleep problems"). Results are deduplicated and truncated by token budget.

  • 自然遗忘 / Natural forgetting: 改进版艾宾浩斯遗忘曲线。不活跃的记忆自动衰减归档,高情绪强度的记忆衰减更慢。 Modified Ebbinghaus forgetting curve. Inactive memories naturally decay and archive. High-arousal memories decay slower.

  • 权重池浮现 / Weight pool surfacing: 记忆不是被动检索的,它们会主动浮现——未解决的、情绪强烈的记忆权重更高,会在对话开头自动推送。 Memories aren't just passively retrieved — they actively surface. Unresolved, emotionally intense memories carry higher weight and get pushed at conversation start.

  • 记忆重构 / Memory reconstruction: 检索时根据当前情绪状态微调记忆的 valence 展示值±0.1),模拟人类"此刻的心情影响对过去的回忆"的认知偏差。 During retrieval, memory valence display is subtly shifted (±0.1) based on current mood, simulating the human cognitive bias of "current mood colors past memories".

  • Obsidian 原生 / Obsidian-native: 每个记忆桶就是一个 Markdown 文件YAML frontmatter 存元数据。可以直接在 Obsidian 里浏览、编辑、搜索。自动注入 [[双链]]。 Each memory bucket is a Markdown file with YAML frontmatter. Browse, edit, and search directly in Obsidian. Wikilinks are auto-injected.

  • API 脱水 + 缓存 / API dehydration + cache: 脱水压缩和自动打标通过 LLM APIDeepSeek / Gemini 等)完成,结果缓存到本地 SQLitedehydration_cache.db),相同内容不重复调用 API。向量检索不可用时降级到 fuzzy matching。 Dehydration and auto-tagging are done via LLM API (DeepSeek / Gemini etc.), with results cached locally in SQLite (dehydration_cache.db) to avoid redundant API calls. Embedding search degrades to fuzzy matching when unavailable.

  • 历史对话导入 / Conversation history import: 将过去与 Claude / ChatGPT / DeepSeek 等的对话批量导入为记忆桶。支持 Claude JSON 导出、ChatGPT 导出、Markdown、纯文本等格式分块处理带断点续传通过 Dashboard「导入」Tab 操作。 Batch-import past conversations (Claude / ChatGPT / DeepSeek etc.) as memory buckets. Supports Claude JSON export, ChatGPT export, Markdown, and plain text. Chunked processing with resume support, via the Dashboard "Import" tab.

边界说明 / Design boundaries

官方记忆功能已经在做身份层的事了——你是谁你有什么偏好你们的关系是什么。那一层交给它Ombre Brain不打算造重复的轮子。

Ombre Brain 的边界是时间里发生的事,不是你是谁。它记住的是:你们聊过什么,经历了什么,哪些事情还悬在那里没有解决。两层配合用,才是完整的。

每次新对话Claude 从零开始——但它能从 Ombre Brain 里找回跟你有关的一切。不是重建,是接续。


Official memory already handles the identity layer — who you are, what you prefer, what your relationship is. That layer belongs there. Ombre Brain isn't trying to duplicate it.

Ombre Brain's boundary is what happened in time, not who you are. It holds conversations, experiences, unresolved things. The two layers together are what make it feel complete.

Each new conversation starts fresh — but Claude can reach back through Ombre Brain and find everything that happened between you. Not a rebuild. A continuation.

架构 / Architecture

Claude ←→ MCP Protocol ←→ server.py
                              │
              ┌───────────────┼───────────────┐
              │               │               │
        bucket_manager   dehydrator     decay_engine
         (CRUD + 搜索)    (压缩 + 打标)   (遗忘曲线)
              │               │
        Obsidian Vault   embedding_engine
       (Markdown files)  (向量语义检索)
                              │
                         embeddings.db
                         (SQLite, 3072-dim)

检索架构 / Search Architecture

breath(query="今天很累")
         │
    ┌────┴────┐
    │         │
 Channel 1  Channel 2
 关键词匹配   向量语义
 (rapidfuzz)  (cosine similarity)
    │         │
    └────┬────┘
         │
    去重 + 合并
    token 预算截断
         │
    [语义关联] 标注 vector 来源
         │
    返回 ≤20 条结果

6 个 MCP 工具 / 6 MCP tools:

工具 Tool 作用 Purpose
breath 浮现或检索记忆。无参数=推送未解决记忆;有参数=关键词+向量语义双通道检索。支持 domain/valence/arousal 过滤 / Surface or search memories. No args = surface unresolved; with query = keyword + vector dual-channel search. Supports domain/valence/arousal filters
hold 存储单条记忆,自动打标+合并相似桶+生成 embedding。feel=True 写模型自己的感受 / Store a single memory with auto-tagging, merging, and embedding. feel=True for model's own reflections
grow 日记归档,自动拆分长内容为多个记忆桶,每个桶自动生成 embedding / Diary digest, auto-split into multiple buckets with embeddings
trace 修改元数据、标记已解决、删除 / Modify metadata, mark resolved, delete
pulse 系统状态 + 所有记忆桶列表 / System status + bucket listing
dream 对话开头自省消化——读最近记忆,有沉淀写 feel能放下就 resolve / Self-reflection at conversation start

安装 / Setup

环境要求 / Requirements

  • Python 3.11+
  • 一个 Obsidian Vault可选不用也行会在项目目录下自建 buckets/ An Obsidian vault (optional — without one, it uses a local buckets/ directory)

步骤 / Steps

git clone https://github.com/P0luz/Ombre-Brain.git
cd Ombre-Brain

python -m venv .venv
source .venv/bin/activate  # Windows: .venv\Scripts\activate

pip install -r requirements.txt

复制配置文件并按需修改 / Copy config and edit as needed:

cp config.example.yaml config.yaml

如果你要用 API 做脱水压缩和自动打标(推荐,效果好很多),设置环境变量: If you want API-powered dehydration and tagging (recommended, much better quality):

export OMBRE_API_KEY="your-api-key"

支持任何 OpenAI 兼容 API。在 config.yaml 里改 base_urlmodel 就行。 Supports any OpenAI-compatible API. Just change base_url and model in config.yaml.

💡 向量化检索Embedding Ombre Brain 内置双通道检索:关键词匹配 + 向量语义搜索。每次 hold/grow 存入记忆时自动生成 embedding 并存入 embeddings.dbSQLite。 推荐:Google AI Studio 的 gemini-embedding-001免费1500 次/天3072 维向量)。在 config.yamlembedding 部分配置。 不配置 embedding 也能用,系统会降级到纯 fuzzy matching 模式。

已有存量桶需要补生成 embedding:运行 backfill_embeddings.py

OMBRE_API_KEY="your-key" python backfill_embeddings.py --batch-size 20

Docker 用户:docker exec -e OMBRE_BUCKETS_DIR=/data ombre-brain python3 backfill_embeddings.py --batch-size 20

Embedding support: Built-in dual-channel search: keyword + vector semantic. Embeddings are auto-generated on each hold/grow and stored in embeddings.db (SQLite). Recommended: Google AI Studio gemini-embedding-001 (free, 1500 req/day, 3072-dim). Configure in config.yaml under embedding. Without it, falls back to fuzzy matching. For existing buckets, run backfill_embeddings.py.

接入 Claude Desktop / Connect to Claude Desktop

在 Claude Desktop 配置文件中添加macOS: ~/Library/Application Support/Claude/claude_desktop_config.json

Add to your Claude Desktop config:

{
  "mcpServers": {
    "ombre-brain": {
      "command": "python",
      "args": ["/path/to/Ombre-Brain/server.py"],
      "env": {
        "OMBRE_API_KEY": "your-api-key"
      }
    }
  }
}

接入 Claude.ai (远程) / Connect to Claude.ai (remote)

需要 HTTP 传输 + 隧道。可以用 Docker Requires HTTP transport + tunnel. Docker setup:

echo "OMBRE_API_KEY=your-api-key" > .env
docker-compose up -d

docker-compose.yml 里配好了 Cloudflare Tunnel。你需要自己在 ~/.cloudflared/ 下放凭证和路由配置。 The docker-compose.yml includes Cloudflare Tunnel. You'll need your own credentials under ~/.cloudflared/.

指向 Obsidian / Point to Obsidian

config.yaml 里设置 buckets_dir Set buckets_dir in config.yaml:

buckets_dir: "/path/to/your/Obsidian Vault/Ombre Brain"

不设的话,默认用项目目录下的 buckets/。 If not set, defaults to buckets/ in the project directory.

配置 / Configuration

所有参数在 config.yaml(从 config.example.yaml 复制)。关键的几个: All parameters in config.yaml (copy from config.example.yaml). Key ones:

参数 Parameter 说明 Description 默认 Default
transport stdio(本地)/ streamable-http(远程) stdio
buckets_dir 记忆桶存储路径 / Bucket storage path ./buckets/
dehydration.model 脱水用的 LLM 模型 / LLM model for dehydration deepseek-chat
dehydration.base_url API 地址 / API endpoint https://api.deepseek.com/v1
embedding.enabled 启用向量语义检索 / Enable embedding search true
embedding.model Embedding 模型 / Embedding model gemini-embedding-001
decay.lambda 衰减速率,越大越快忘 / Decay rate 0.05
decay.threshold 归档阈值 / Archive threshold 0.3
merge_threshold 合并相似度阈值 (0-100) / Merge similarity 75

敏感配置用环境变量: Sensitive config via env vars:

  • OMBRE_API_KEY — LLM API 密钥
  • OMBRE_TRANSPORT — 覆盖传输方式
  • OMBRE_BUCKETS_DIR — 覆盖存储路径

衰减公式 / Decay Formula

final\_score = Importance \times activation\_count^{0.3} \times e^{-\lambda \times days} \times combined\_weight \times resolved\_factor \times urgency\_boost

短期/长期权重分离 / Short-term vs Long-term Weight Separation

系统对记忆的权重计算采用分段策略,模拟人类记忆的时效特征: The system uses a segmented weighting strategy that mimics how human memory prioritizes:

阶段 Phase 时间范围 权重分配 直觉解释
短期 Short-term ≤ 3 天 时间 70% + 情感 30% 刚发生的事,鲜活度最重要
长期 Long-term > 3 天 情感 70% + 时间 30% 时间淡了,情感强度决定能记多久
combined\_weight = \begin{cases} time\_weight \times 0.7 + emotion\_weight \times 0.3 & \text{if } days \leq 3 \\ emotion\_weight \times 0.7 + time\_weight \times 0.3 & \text{if } days > 3 \end{cases}

时间系数(新鲜度加成)/ Time Weight (Freshness Bonus)

连续指数衰减,无跳变: Continuous exponential decay, no discontinuities:

freshness = 1.0 + 1.0 \times e^{-t/36}
距存入时间 Time since creation 新鲜度乘数 Multiplier
刚存入 (t=0) ×2.0
约 25 小时 ×1.5
约 50 小时 ×1.25
72 小时 (3天) ×1.14
1 周+ ×1.0

t 为小时36 为衰减常数。老记忆不被惩罚(下限 ×1.0),新记忆获得额外加成。

情感权重 / Emotion Weight

emotion\_weight = base + arousal \times arousal\_boost
  • 默认 base=1.0, arousal_boost=0.8
  • arousal=0.3(平静)→ 1.24arousal=0.9(激动)→ 1.72

权重池修正因子 / Weight Pool Modifiers

状态 State 修正因子 Factor 说明
未解决 Unresolved ×1.0 正常权重
已解决 Resolved ×0.05 沉底,等关键词唤醒
已解决+已消化 Resolved+Digested ×0.02 加速淡化,归档为无限小
高唤醒+未解决 Urgent ×1.5 arousal>0.7 的未解决记忆额外加权
钉选 Pinned 999.0 不衰减、不合并、importance=10
Feel 50.0 固定分数,不参与衰减

参数说明 / Parameters

  • importance: 1-10记忆重要性 / memory importance
  • activation_count: 被检索的次数,越常被想起衰减越慢 / retrieval count; more recalls = slower decay
  • days: 距上次激活的天数 / days since last activation
  • arousal: 唤醒度,越强烈的记忆越难忘 / arousal; intense memories are harder to forget
  • λ (decay_lambda): 衰减速率,默认 0.05 / decay rate, default 0.05

Dreaming 与 Feel / Dreaming & Feel

Dreaming — 做梦

每次新对话开始时Claude 会自动执行 dream()——读取最近的记忆桶,用第一人称思考:哪些事还有重量?哪些可以放下了?

At the start of each conversation, Claude runs dream() — reads recent memory buckets and reflects in first person: what still carries weight? What can be let go?

  • 值得放下的 → trace(resolved=1) 让它沉底
  • 有沉淀的 → 写 feel,记录模型自己的感受
  • 没有沉淀就不写,不强迫产出

Feel — 带走的东西

Feel 不是事件记录,是模型带走的东西——一句感受、一个未解答的问题、一个观察到的变化。

Feel is not an event log — it's what the model carries away: a feeling, an unanswered question, a noticed change.

  • hold(content="...", feel=True, source_bucket="源记忆ID", valence=模型自己的感受)
  • valence 是模型的感受,不是事件情绪。同一段争吵,事件 V0.2,但模型可能 V0.4(「我从中看到了成长」)
  • source_bucket 指向被消化的记忆,会被标记为「已消化」→ 加速淡化到无限小,但不会被删除
  • Feel 不参与普通浮现、不衰减、不参与 dreaming
  • breath(domain="feel") 读取之前的 feel

对话启动完整流程 / Conversation Start Sequence

1. breath()              — 睁眼,看有什么浮上来
2. dream()               — 消化最近记忆,有沉淀写 feel
3. breath(domain="feel") — 读之前的 feel
4. 开始和用户说话

给 Claude 的使用指南 / Usage Guide for Claude

CLAUDE_PROMPT.md 是写给 Claude 看的使用说明。放到你的 system prompt 或 custom instructions 里就行。

CLAUDE_PROMPT.md is the usage guide written for Claude. Put it in your system prompt or custom instructions.

工具脚本 / Utility Scripts

脚本 Script 用途 Purpose
embedding_engine.py 向量化引擎,管理 embedding 的生成、存储、相似度搜索 / Embedding engine: generate, store, and search embeddings
backfill_embeddings.py 为存量桶批量生成 embedding / Batch-generate embeddings for existing buckets
write_memory.py 手动写入记忆,绕过 MCP / Manually write memories, bypass MCP
migrate_to_domains.py 迁移平铺文件到域子目录 / Migrate flat files to domain subdirs
reclassify_domains.py 基于关键词重分类 / Reclassify by keywords
reclassify_api.py 用 API 重打标未分类桶 / Re-tag uncategorized buckets via API
test_tools.py MCP 工具集成测试8 项) / MCP tool integration tests (8 tests)
test_smoke.py 冒烟测试 / Smoke test

部署 / Deploy

Docker Hub 预构建镜像

Docker Hub

不用 clone 代码、不用 build直接拉取预构建镜像

docker pull p0luz/ombre-brain:latest
curl -O https://raw.githubusercontent.com/P0luz/Ombre-Brain/main/docker-compose.user.yml
echo "OMBRE_API_KEY=你的key" > .env
docker compose -f docker-compose.user.yml up -d

验证:curl http://localhost:8000/health Dashboard浏览器打开 http://localhost:8000/dashboard

Render

Deploy to Render

⚠️ 免费层不可用Render 免费层不支持持久化磁盘,服务重启后记忆数据会丢失,且会在无流量时休眠。必须使用 Starter$7/mo或以上才能正常使用。 Free tier won't work: Render free tier has no persistent disk — all memory data is lost on restart. It also sleeps on inactivity. Starter plan ($7/mo) or above is required.

项目根目录已包含 render.yaml,点击按钮后:

  1. (可选)设置 OMBRE_API_KEY:任何 OpenAI 兼容 API 的 key不填则自动降级为本地关键词提取
  2. (可选)设置 OMBRE_BASE_URLAPI 地址,支持任意 OpenAI 化地址,如 https://api.deepseek.com/v1 / http://123.1.1.1:7689/v1 / http://your-ollama:11434/v1
  3. Render 自动挂载持久化磁盘到 /opt/render/project/src/buckets
  4. Dashboardhttps://<你的服务名>.onrender.com/dashboard
  5. 部署后 MCP URLhttps://<你的服务名>.onrender.com/mcp

render.yaml is included. After clicking the button:

  1. (Optional) OMBRE_API_KEY: any OpenAI-compatible key; omit to fall back to local keyword extraction
  2. (Optional) OMBRE_BASE_URL: any OpenAI-compatible endpoint, e.g. https://api.deepseek.com/v1, http://123.1.1.1:7689/v1, http://your-ollama:11434/v1
  3. Persistent disk auto-mounts at /opt/render/project/src/buckets
  4. Dashboard: https://<your-service>.onrender.com/dashboard
  5. MCP URL after deploy: https://<your-service>.onrender.com/mcp

Zeabur

💡 Zeabur 的定价模式Zeabur 是「买 VPS + 平台托管」,你先购买一台服务器(最低腾讯云新加坡 $2/mo、火山引擎 $3/moVolume 直接挂在该服务器上,数据天然持久化,无丢失问题。另需订阅 Zeabur 管理方案Developer $5/mo总计约 $7-8/mo 起。 Zeabur pricing model: You buy a VPS first (cheapest: Tencent Cloud Singapore ~$2/mo, Volcano Engine ~$3/mo), then add Zeabur's Developer plan ($5/mo) for management. Volumes mount directly on your server — data is always persistent, no cold-start data loss. Total ~$7-8/mo minimum.

步骤 / Steps

  1. 创建项目 / Create project

    • 打开 zeabur.com → 购买一台服务器 → New ProjectDeploy from GitHub
    • 先 Fork 本仓库到自己 GitHub 账号,然后在 Zeabur 选择 你的用户名/Ombre-Brain
    • Zeabur 会自动检测到根目录的 Dockerfile 并使用 Docker 方式构建
    • Go to zeabur.com → buy a server → New ProjectDeploy from GitHub
    • Fork this repo first, then select your-username/Ombre-Brain in Zeabur
    • Zeabur auto-detects the Dockerfile in root and builds via Docker
  2. 设置环境变量 / Set environment variables(服务页面 → Variables 标签页)

    • OMBRE_API_KEY(可选)— LLM API 密钥,不填则自动降级为本地关键词提取
    • OMBRE_BASE_URL(可选)— API 地址,如 https://api.deepseek.com/v1

    ⚠️ 不需要手动设置 OMBRE_TRANSPORTOMBRE_BUCKETS_DIRDockerfile 里已经设好了默认值。Zeabur 对单阶段 Dockerfile 会自动注入控制台设置的环境变量。 You do NOT need to set OMBRE_TRANSPORT or OMBRE_BUCKETS_DIR — defaults are baked into the Dockerfile. Zeabur auto-injects dashboard env vars for single-stage Dockerfiles.

  3. 挂载持久存储 / Mount persistent volume(服务页面 → Volumes 标签页)

    • Volume IDombre-buckets(或任意名)
    • 挂载路径 / Path/app/buckets
    • ⚠️ 不挂载的话,每次重新部署记忆数据会丢失
    • ⚠️ Without this, memory data is lost on every redeploy
  4. 配置端口 / Configure port(服务页面 → Networking 标签页)

    • Port Nameweb(或任意名)
    • Port8000
    • Port TypeHTTP
    • 然后点 Generate Domain 生成一个 xxx.zeabur.app 域名
    • Then click Generate Domain to get a xxx.zeabur.app domain
  5. 验证 / Verify

    • 访问 https://<你的域名>.zeabur.app/health,应返回 JSON
    • Visit https://<your-domain>.zeabur.app/health — should return JSON
    • Dashboardhttps://<你的域名>.zeabur.app/dashboard
    • 最终 MCP 地址 / MCP URLhttps://<你的域名>.zeabur.app/mcp

常见问题 / Troubleshooting

现象 Symptom 原因 Cause 解决 Fix
域名无法访问 / Domain unreachable 没配端口 / Port not configured Networking 标签页加 port 8000 (HTTP)
域名无法访问 / Domain unreachable OMBRE_TRANSPORT 未设置,服务以 stdio 模式启动,不监听任何端口 / Service started in stdio mode — no port is listened Variables 标签页确认设置 OMBRE_TRANSPORT=streamable-http,然后重新部署
构建失败 / Build failed Dockerfile 未被识别 / Dockerfile not detected 确认仓库根目录有 Dockerfile(大小写敏感)
服务启动后立刻退出 OMBRE_TRANSPORT 被覆盖为 stdio 检查 Variables 里有没有多余的 OMBRE_TRANSPORT=stdio,删掉即可
重启后记忆丢失 / Data lost on restart Volume 未挂载 Volumes 标签页挂载到 /app/buckets

使用 Cloudflare Tunnel 或 ngrok 连接 / Connecting via Cloudflare Tunnel or ngrok

自 v1.1 起server.py 在 HTTP 模式下已自动添加 CORS 中间件,无需额外配置。 Since v1.1, server.py automatically enables CORS middleware in HTTP mode — no extra config needed.

使用隧道连接时,确保以下条件满足: When connecting via tunnel, ensure:

  1. 服务器必须运行在 HTTP 模式 / Server must use HTTP transport

    OMBRE_TRANSPORT=streamable-http python server.py
    

    或 Docker

    docker-compose up -d
    
  2. 在 Claude.ai 网页版添加 MCP 服务器 / Adding to Claude.ai web

    • URL 格式 / URL format: https://<tunnel-subdomain>.trycloudflare.com/mcp
    • 或 ngrok / or ngrok: https://<xxxx>.ngrok-free.app/mcp
    • 先访问 /health 验证连接 / Verify first: https://<your-tunnel>/health should return {"status":"ok",...}
  3. 已知限制 / Known limitations

    • Cloudflare Tunnel 免费版有空闲超时(约 10 分钟),系统内置保活 ping 可缓解但不能完全消除
    • Free Cloudflare Tunnel has idle timeout (~10 min); built-in keepalive pings mitigate but can't fully prevent it
    • ngrok 免费版有请求速率限制 / ngrok free tier has rate limits
    • 如果连接仍失败,检查隧道是否正在运行、服务是否以 streamable-http 模式启动
    • If connection still fails, verify the tunnel is running and the server started in streamable-http mode
现象 Symptom 原因 Cause 解决 Fix
网页版无法连接隧道 URL / Web can't connect to tunnel URL 服务以 stdio 模式运行 / Server in stdio mode 设置 OMBRE_TRANSPORT=streamable-http 后重启
网页版无法连接隧道 URL / Web can't connect to tunnel URL 旧版 server.py 缺少 CORS 头 / Missing CORS headers 拉取最新代码CORS 已内置 / Pull latest — CORS is now built-in
/health 返回 200 但 MCP 连不上 / /health 200 but MCP fails 路径错误 / Wrong path MCP URL 末尾必须是 /mcp 而非 /
隧道连接偶尔断开 / Tunnel disconnects intermittently Cloudflare Tunnel 空闲超时 / Idle timeout 保活 ping 已内置,若仍断开可缩短隧道超时配置

Session Start Hook自动 breath

部署后,如果你使用 Claude Code可以在项目内激活自动浮现 hook .claude/settings.json 已配置好 SessionStart hook每次新会话或恢复会话时自动触发 breath,把最高权重未解决记忆推入上下文。

仅在远程 HTTP 模式下有效OMBRE_TRANSPORT=streamable-http)。本地 stdio 模式下 hook 会安静退出,不影响正常使用。

可以通过 OMBRE_HOOK_URL 环境变量指定服务器地址(默认 http://localhost:8000),或者设置 OMBRE_HOOK_SKIP=1 临时禁用。

If using Claude Code, .claude/settings.json configures a SessionStart hook that auto-calls breath on each new or resumed session, surfacing your highest-weight unresolved memories as context. Only active in remote HTTP mode. Set OMBRE_HOOK_SKIP=1 to disable temporarily.

License

MIT

Description
No description provided
Readme MIT 418 KiB
Languages
Python 85.7%
HTML 14%
Dockerfile 0.3%