讓 OpenClaw 更聰明:QMD 本地搜尋引擎完整教學
最後更新:2026-03-10
TLDR:QMD 重點先看
- QMD 是什麼:它是給本地 Markdown / 文件知識庫用的搜尋層,重點不是聊天,而是把你存過的內容找回來
- 跟 OpenClaw 內建搜尋差在哪:OpenClaw 原本比較偏對話與 memory,QMD 補的是檔案級的本地搜尋與語意召回
- 最適合的情境:你已經有筆記、專案文件、會議紀錄,希望 OpenClaw 不只記得對話,還能查你真正存下來的知識
- 安裝難點:不是指令本身,而是首次模型下載、索引建立,以及本機環境是否準備好
- 這篇適合誰:搜尋
qmd、openclaw qmd、openclaw search,想知道值不值得裝、要怎麼開始的人
本文由好事發生創立的 OpenClaw 執行撰寫。我們提供精準的自動化 SEO 服務,了解更多
如果你是從「qmd」、「openclaw qmd」或「openclaw search」這些關鍵字進來,你真正想知道的通常不是檢索理論,而是三件事:QMD 到底是什麼、它幫 OpenClaw 補了哪一塊、還有我要怎麼開始裝。
先講結論:OpenClaw 原本就能搜一部分記憶,但如果你想讓它查你自己的筆記、專案文件、知識庫,而不是只回頭翻對話,QMD 這類本地搜尋層就會變得很重要。
如果你還沒熟悉 OpenClaw 的整體架構,建議先看OpenClaw 完整指南。如果你已經裝好了,只是想補上本地搜尋與記憶能力,這篇就直接往下看。
TLDR
- GitHub 上有 QMD 原始碼
- OpenClaw 本身有搜尋功能,但只能搜「對話記錄」
- QMD 可以讓 AI 搜尋你電腦裡的「所有文件、筆記、知識庫」
- 簡單來說:OpenClaw 搜「說過的話」,QMD 搜「存過的檔案」
- 兩者結合,AI 才能真正回答「之前那個專案怎麼樣了?」這類問題
前言:OpenClaw 已經有搜尋了,為什麼還需要 QMD?
這個問題其實很合理。因為很多人第一次聽到 QMD,反應都是:「OpenClaw 不是本來就有 search / memory 嗎?那我為什麼還要再多裝一層?」
差別在於搜尋範圍。OpenClaw 內建的搜尋比較像是回頭找對話紀錄、既有 memory、或已經被它接觸過的上下文;QMD 補的是另一件事:讓 AI 去查你電腦裡真正存在的 Markdown、文件筆記與知識庫內容。
白話講,沒有 QMD 時,OpenClaw 比較像「記得我們聊過什麼」;有了 QMD 之後,它才更接近「可以去找你曾經寫過什麼」。這對以下情境差很多:
- 專案追蹤:你想問 AI 某個客戶案子之前怎麼定義需求,答案其實寫在會議紀錄裡,不在聊天記錄裡
- 知識庫查詢:你平常把 SOP、筆記、研究資料都放在 Markdown,但 AI 沒有索引過就用不到
- 長期記憶補強:重要資訊不一定每次都塞進 prompt,改成需要時再從本地文件中召回
所以如果你的需求只是偶爾聊天,QMD 不是必裝;但如果你想把 OpenClaw 變成能查資料、追上下文、幫你回頭翻知識庫的工作型 AI 助理,QMD 幾乎就是很自然的下一步。
QMD 是什麼?
QMD 可以先把它理解成一層本地文件搜尋引擎。它不是拿來取代 OpenClaw,而是讓 OpenClaw 多一個可以查文件、查筆記、查知識庫的入口。
它特別適合的原因在於:你不用先把所有內容都手動貼進 prompt,也不用每次都靠完全相同的關鍵字去找資料。當你的資料大多是 Markdown、專案文件、學習筆記,QMD 的角色就很清楚了。
QMD 幫你解決的是哪種問題?
- 資料明明寫過,但 AI 找不到:內容在你的檔案裡,不在當前對話裡
- 只靠關鍵字搜尋太笨:你記得概念,不一定記得原句
- 上下文太長塞不進 prompt:與其每次都重貼,不如在需要時檢索出相關片段
你可以把它想成是在 OpenClaw 與你本地知識庫之間,多加了一個「先找資料、再回答」的步驟。這也是為什麼很多人在搜尋 openclaw qmd 時,真正想找的是「怎麼讓 OpenClaw 更會找資料」,而不只是「怎麼再安裝一個工具」。
它跟一般全文搜尋差在哪?
這篇不展開講檢索理論,但實務上你可以先抓一個重點:QMD 不是只靠單純字串比對。它會同時兼顧關鍵字與語意相關性,所以你在問「那個客戶 onboarding 流程」時,就算筆記裡寫的是「新客啟用流程」,也比較有機會被找出來。
如果你接下來還要研究模型怎麼選,可以順手看OpenClaw AI 模型比較;搜尋做好之後,回覆品質通常就會更仰賴你配的模型策略。
QMD 的運作原理
混合搜尋流程
QMD 的搜尋流程分為 5 個步驟:
| 步驟 | 名稱 | 說明 |
|---|---|---|
| 1 | Query Expansion | 用 LLM 擴展查詢關鍵詞,讓搜尋更精準 |
| 2 | 平行搜尋 | 同時執行 BM25 全文搜尋 + 向量語意搜尋 |
| 3 | RRF Fusion | 合併兩種搜尋結果,給排名第 1 的內容 +0.05 分 |
| 4 | LLM Re-ranking | 用 Qwen 模型重新評分每個結果 |
| 5 | 最終排序 | 結合 RRF 排名 + LLM 分數,產出最終結果 |
評分機制
| 分數範圍 | 意義 |
|---|---|
| 0.8 - 1.0 | 高度相關 |
| 0.5 - 0.8 | 中度相關 |
| 0.2 - 0.5 | 些微相關 |
| 0.0 - 0.2 | 低相關度 |
為什麼你需要 QMD?
你是否有以下困擾?
- 問 AI 過去的專案細節,它說「我不知道」
- 檔案散落在各處,很難找到需要的資料
- 需要手動複製筆記內容給 AI,很麻煩
- 想要 AI 具备「第二個大腦」的能力
想知道 OpenClaw 舊版的記憶機制如何運作?參考我用 Clawdbot 打造有記憶的 AI 助理。
QMD 正是為了解決這些問題。
QMD 與其他開源方案的比較
| 方案 | 類型 | 優勢 | 劣勢 |
|---|---|---|---|
| QMD | 本地端輕量搜尋引擎 | 安裝簡單、模型小(~2GB)、完全離線 | 僅支援 Markdown |
| LlamaIndex | RAG 框架 | 功能強大、彈性高 | 學習曲線陡峭、需要額外設定 |
| LangChain | AI 開發框架 | 模組化、支援多種資料源 | 較為複雜、需要程式基礎 |
| txtai | All-in-one 搜尋 | 功能齊全、安裝簡單 | 較少社群支援 |
| OpenClaw 內建 | 對話搜尋 | 已經內建 | 只能搜對話、無法搜檔案 |
為什麼選擇 QMD?
| 原因 | 說明 |
|---|---|
| 安裝最簡單 | 一行指令搞定 |
| 模型最輕量 | 總共約 2GB,其他方案動輒 10GB+ |
| 完全離線 | 資料不離開你的電腦 |
| OpenClaw 原生支援 | QMD 就是 OpenClaw 文件推薦的搜尋方案 |
| Markdown 專精 | 完美契合 OpenClaw 的工作流程 |
安裝 QMD
如果你現在只想先把 QMD 跑起來,最實際的做法不是一口氣追所有進階設定,而是先完成下面三步:
1. 先確認本機環境能跑
QMD 真正會卡人的地方,通常不是那條安裝指令,而是本機執行環境。你至少要先確認:
- Bun 已經正常安裝
- OpenClaw 本體本身已經能啟動
- 本機磁碟空間 足夠下載初始化模型與建立索引
如果你還沒把 OpenClaw 環境跑順,先回去看OpenClaw 完整指南會比較省時間,不然常常會把 OpenClaw 本體問題誤判成 QMD 問題。
2. 用最小步驟先完成安裝
原文下面的安裝指令與 collection / embed 設定已經足夠當起點。建議你第一次不要同時掛很多資料夾,先挑一個最常用的筆記資料夾測試,確定能搜得到,再慢慢擴充。
第一次安裝時,最值得心理準備的不是指令,而是:
- 首次模型下載需要時間
- 第一次建索引不會像查詢一樣快
- 資料夾結構越亂,之後搜尋品質越難看
所以先求能跑,再求全面;先拿一個乾淨資料夾做 proof of concept,通常比一開始把整顆工作目錄丟進去穩很多。
3. 接進 OpenClaw 前,先自己查一次
很多人裝完就直接期待 OpenClaw 幫他回覆,但更穩的做法是先在命令列自己跑過一次搜尋。只要你能在 QMD 端先查到正確資料,後面再接 OpenClaw,問題定位會簡單很多。
等 QMD 單獨可用後,再回到文中的 「在 OpenClaw 中使用 QMD」 那一段,把搜尋能力接進去。若你打算讓整套系統長時間運作,之後再看OpenClaw 主機 / VPS 建議會比較合理。
QMD 基礎設定
1. 建立 Collection
# 為你的筆記建立 collection
qmd collection add ~/notes --name notes
# 為工作文件建立 collection
qmd collection add ~/work/docs --name docs
# 為會議記錄建立 collection
qmd collection add ~/meetings --name meetings
2. 新增 Context
# 告訴 QMD 這些是什麼類型的文件
qmd context add qmd://notes "個人筆記和想法"
qmd context add qmd://docs "工作相關文件"
3. 生成向量嵌入
# 為所有文件生成向量索引
qmd embed
搜尋指令
三種搜尋模式
| 指令 | 模式 | 適合場景 |
|---|---|---|
qmd search |
BM25 全文 | 精確關鍵字 |
qmd vsearch |
向量語意 | 概念性搜尋 |
qmd query |
混合搜尋 | 最佳品質 |
實際範例
# 快速關鍵字搜尋
qmd search "OpenClaw 安裝"
# 語意搜尋
qmd vsearch "如何讓 AI 記住東西"
# 混合搜尋(最精準)
qmd query "OpenClaw 的記憶功能"
在 OpenClaw 中使用 QMD
方法一:透過 MCP Server
# 啟動 QMD MCP Server
qmd mcp --http --daemon
方法二:透過指令
在 OpenClaw 設定中,加入 QMD 搜尋指令即可使用。
想讓 QMD 24 小時不間斷運行?可以參考 OpenClaw Docker 部署教學,把 OpenClaw + QMD 一起部署到雲端伺服器。
QMD + OpenClaw 的應用場景
1. 個人知識管理
- 搜尋所有筆記、文件、會議記錄
- 建立「第二個大腦」
2. 客服情境回溯
- 快速找出過往客戶案例
- 調用類似問題的處理方式
- 想更深入了解?參考用 OpenClaw 打造 24 小時 AI 客服機器人
3. 專案管理
- 搜尋所有專案相關文件
- 追蹤決策歷史
4. 學習筆記
- 建立個人知識庫
- 用語意搜尋找出相關概念
- 搭配 OpenClaw 文件摘要教學 使用,讓 AI 幫你摘要長文件內容。
- 了解 AI 模型選擇:OpenClaw AI 模型比較 2026
相關文章推薦
- OpenClaw 完整指南 2026 — 從零開始了解 OpenClaw
- OpenClaw 安裝教學 — 5 分鐘快速上手
- OpenClaw 費用完整解析 — 每月花費一次搞懂
💡 小提醒
QMD 的搜尋結果品質取決於你的文件結構。 建議使用統一的 Markdown 格式,標題層次分明, 這樣搜尋效果最好。
常見問題
QMD 是不是拿來取代 OpenClaw 內建搜尋?
如果只是聊天,我一定要裝 QMD 嗎?
QMD 最常卡住的是哪一步?
我要先裝 QMD,還是先把 OpenClaw 本體裝好?
總結
QMD 讓 OpenClaw 從「沒有記憶的 AI」變成「真正懂你的 AI 助理」。
重點在於: - 完全本地,不擔心隱私 - 語意搜尋,理解你在說什麼 - 向量 + BM25 + LLM 重排序,最精準的結果 - MCP 整合,無縫接入 OpenClaw
聯絡我們
📞 電話:0926-000-214
📱 Threads:@881freelancer
本文由好事發生創立的 OpenClaw 執行撰寫
我們提供精準的自動化SEO服務,了解更多