讓 OpenClaw 更聰明:QMD 本地搜尋引擎完整教學

Gary
2026/2/13

用 AI 深入探索這篇文章

點選下方平台,從消費者角度快速整理重點、追問問題與站內延伸閱讀

最後更新:2026-03-10

TLDR:QMD 重點先看

  • QMD 是什麼:它是給本地 Markdown / 文件知識庫用的搜尋層,重點不是聊天,而是把你存過的內容找回來
  • 跟 OpenClaw 內建搜尋差在哪:OpenClaw 原本比較偏對話與 memory,QMD 補的是檔案級的本地搜尋與語意召回
  • 最適合的情境:你已經有筆記、專案文件、會議紀錄,希望 OpenClaw 不只記得對話,還能查你真正存下來的知識
  • 安裝難點:不是指令本身,而是首次模型下載、索引建立,以及本機環境是否準備好
  • 這篇適合誰:搜尋 qmdopenclaw qmdopenclaw search,想知道值不值得裝、要怎麼開始的人

本文由好事發生創立的 OpenClaw 執行撰寫。我們提供精準的自動化 SEO 服務,了解更多

如果你是從「qmd」、「openclaw qmd」或「openclaw search」這些關鍵字進來,你真正想知道的通常不是檢索理論,而是三件事:QMD 到底是什麼、它幫 OpenClaw 補了哪一塊、還有我要怎麼開始裝。

先講結論:OpenClaw 原本就能搜一部分記憶,但如果你想讓它查你自己的筆記、專案文件、知識庫,而不是只回頭翻對話,QMD 這類本地搜尋層就會變得很重要。

如果你還沒熟悉 OpenClaw 的整體架構,建議先看OpenClaw 完整指南。如果你已經裝好了,只是想補上本地搜尋與記憶能力,這篇就直接往下看。

TLDR

  • GitHub 上有 QMD 原始碼
  • OpenClaw 本身有搜尋功能,但只能搜「對話記錄」
  • QMD 可以讓 AI 搜尋你電腦裡的「所有文件、筆記、知識庫」
  • 簡單來說:OpenClaw 搜「說過的話」,QMD 搜「存過的檔案」
  • 兩者結合,AI 才能真正回答「之前那個專案怎麼樣了?」這類問題

前言:OpenClaw 已經有搜尋了,為什麼還需要 QMD?

這個問題其實很合理。因為很多人第一次聽到 QMD,反應都是:「OpenClaw 不是本來就有 search / memory 嗎?那我為什麼還要再多裝一層?」

差別在於搜尋範圍。OpenClaw 內建的搜尋比較像是回頭找對話紀錄、既有 memory、或已經被它接觸過的上下文;QMD 補的是另一件事:讓 AI 去查你電腦裡真正存在的 Markdown、文件筆記與知識庫內容。

白話講,沒有 QMD 時,OpenClaw 比較像「記得我們聊過什麼」;有了 QMD 之後,它才更接近「可以去找你曾經寫過什麼」。這對以下情境差很多:

  • 專案追蹤:你想問 AI 某個客戶案子之前怎麼定義需求,答案其實寫在會議紀錄裡,不在聊天記錄裡
  • 知識庫查詢:你平常把 SOP、筆記、研究資料都放在 Markdown,但 AI 沒有索引過就用不到
  • 長期記憶補強:重要資訊不一定每次都塞進 prompt,改成需要時再從本地文件中召回

所以如果你的需求只是偶爾聊天,QMD 不是必裝;但如果你想把 OpenClaw 變成能查資料、追上下文、幫你回頭翻知識庫的工作型 AI 助理,QMD 幾乎就是很自然的下一步。

QMD 是什麼?

QMD 可以先把它理解成一層本地文件搜尋引擎。它不是拿來取代 OpenClaw,而是讓 OpenClaw 多一個可以查文件、查筆記、查知識庫的入口。

它特別適合的原因在於:你不用先把所有內容都手動貼進 prompt,也不用每次都靠完全相同的關鍵字去找資料。當你的資料大多是 Markdown、專案文件、學習筆記,QMD 的角色就很清楚了。

QMD 幫你解決的是哪種問題?

  • 資料明明寫過,但 AI 找不到:內容在你的檔案裡,不在當前對話裡
  • 只靠關鍵字搜尋太笨:你記得概念,不一定記得原句
  • 上下文太長塞不進 prompt:與其每次都重貼,不如在需要時檢索出相關片段

你可以把它想成是在 OpenClaw 與你本地知識庫之間,多加了一個「先找資料、再回答」的步驟。這也是為什麼很多人在搜尋 openclaw qmd 時,真正想找的是「怎麼讓 OpenClaw 更會找資料」,而不只是「怎麼再安裝一個工具」。

它跟一般全文搜尋差在哪?

這篇不展開講檢索理論,但實務上你可以先抓一個重點:QMD 不是只靠單純字串比對。它會同時兼顧關鍵字與語意相關性,所以你在問「那個客戶 onboarding 流程」時,就算筆記裡寫的是「新客啟用流程」,也比較有機會被找出來。

如果你接下來還要研究模型怎麼選,可以順手看OpenClaw AI 模型比較;搜尋做好之後,回覆品質通常就會更仰賴你配的模型策略。

QMD 的運作原理

混合搜尋流程

QMD 的搜尋流程分為 5 個步驟:

步驟 名稱 說明
1 Query Expansion 用 LLM 擴展查詢關鍵詞,讓搜尋更精準
2 平行搜尋 同時執行 BM25 全文搜尋 + 向量語意搜尋
3 RRF Fusion 合併兩種搜尋結果,給排名第 1 的內容 +0.05 分
4 LLM Re-ranking 用 Qwen 模型重新評分每個結果
5 最終排序 結合 RRF 排名 + LLM 分數,產出最終結果

評分機制

分數範圍 意義
0.8 - 1.0 高度相關
0.5 - 0.8 中度相關
0.2 - 0.5 些微相關
0.0 - 0.2 低相關度

為什麼你需要 QMD?

你是否有以下困擾?

  • 問 AI 過去的專案細節,它說「我不知道」
  • 檔案散落在各處,很難找到需要的資料
  • 需要手動複製筆記內容給 AI,很麻煩
  • 想要 AI 具备「第二個大腦」的能力

想知道 OpenClaw 舊版的記憶機制如何運作?參考我用 Clawdbot 打造有記憶的 AI 助理

QMD 正是為了解決這些問題。


QMD 與其他開源方案的比較

方案 類型 優勢 劣勢
QMD 本地端輕量搜尋引擎 安裝簡單、模型小(~2GB)、完全離線 僅支援 Markdown
LlamaIndex RAG 框架 功能強大、彈性高 學習曲線陡峭、需要額外設定
LangChain AI 開發框架 模組化、支援多種資料源 較為複雜、需要程式基礎
txtai All-in-one 搜尋 功能齊全、安裝簡單 較少社群支援
OpenClaw 內建 對話搜尋 已經內建 只能搜對話、無法搜檔案

為什麼選擇 QMD?

原因 說明
安裝最簡單 一行指令搞定
模型最輕量 總共約 2GB,其他方案動輒 10GB+
完全離線 資料不離開你的電腦
OpenClaw 原生支援 QMD 就是 OpenClaw 文件推薦的搜尋方案
Markdown 專精 完美契合 OpenClaw 的工作流程

安裝 QMD

如果你現在只想先把 QMD 跑起來,最實際的做法不是一口氣追所有進階設定,而是先完成下面三步:

1. 先確認本機環境能跑

QMD 真正會卡人的地方,通常不是那條安裝指令,而是本機執行環境。你至少要先確認:

  • Bun 已經正常安裝
  • OpenClaw 本體本身已經能啟動
  • 本機磁碟空間 足夠下載初始化模型與建立索引

如果你還沒把 OpenClaw 環境跑順,先回去看OpenClaw 完整指南會比較省時間,不然常常會把 OpenClaw 本體問題誤判成 QMD 問題。

2. 用最小步驟先完成安裝

原文下面的安裝指令與 collection / embed 設定已經足夠當起點。建議你第一次不要同時掛很多資料夾,先挑一個最常用的筆記資料夾測試,確定能搜得到,再慢慢擴充。

第一次安裝時,最值得心理準備的不是指令,而是:

  • 首次模型下載需要時間
  • 第一次建索引不會像查詢一樣快
  • 資料夾結構越亂,之後搜尋品質越難看

所以先求能跑,再求全面;先拿一個乾淨資料夾做 proof of concept,通常比一開始把整顆工作目錄丟進去穩很多。

3. 接進 OpenClaw 前,先自己查一次

很多人裝完就直接期待 OpenClaw 幫他回覆,但更穩的做法是先在命令列自己跑過一次搜尋。只要你能在 QMD 端先查到正確資料,後面再接 OpenClaw,問題定位會簡單很多。

等 QMD 單獨可用後,再回到文中的 「在 OpenClaw 中使用 QMD」 那一段,把搜尋能力接進去。若你打算讓整套系統長時間運作,之後再看OpenClaw 主機 / VPS 建議會比較合理。

QMD 基礎設定

1. 建立 Collection

# 為你的筆記建立 collection
qmd collection add ~/notes --name notes

# 為工作文件建立 collection
qmd collection add ~/work/docs --name docs

# 為會議記錄建立 collection
qmd collection add ~/meetings --name meetings

2. 新增 Context

# 告訴 QMD 這些是什麼類型的文件
qmd context add qmd://notes "個人筆記和想法"
qmd context add qmd://docs "工作相關文件"

3. 生成向量嵌入

# 為所有文件生成向量索引
qmd embed

搜尋指令

三種搜尋模式

指令 模式 適合場景
qmd search BM25 全文 精確關鍵字
qmd vsearch 向量語意 概念性搜尋
qmd query 混合搜尋 最佳品質

實際範例

# 快速關鍵字搜尋
qmd search "OpenClaw 安裝"

# 語意搜尋
qmd vsearch "如何讓 AI 記住東西"

# 混合搜尋(最精準)
qmd query "OpenClaw 的記憶功能"

在 OpenClaw 中使用 QMD

方法一:透過 MCP Server

# 啟動 QMD MCP Server
qmd mcp --http --daemon

方法二:透過指令

在 OpenClaw 設定中,加入 QMD 搜尋指令即可使用。

想讓 QMD 24 小時不間斷運行?可以參考 OpenClaw Docker 部署教學,把 OpenClaw + QMD 一起部署到雲端伺服器。


QMD + OpenClaw 的應用場景

1. 個人知識管理

  • 搜尋所有筆記、文件、會議記錄
  • 建立「第二個大腦」

2. 客服情境回溯

3. 專案管理

  • 搜尋所有專案相關文件
  • 追蹤決策歷史

4. 學習筆記


相關文章推薦


💡 小提醒

QMD 的搜尋結果品質取決於你的文件結構。 建議使用統一的 Markdown 格式,標題層次分明, 這樣搜尋效果最好。


常見問題

QMD 是不是拿來取代 OpenClaw 內建搜尋?

不是。QMD 比較像是補上本地文件與知識庫搜尋這一層,讓 OpenClaw 不只回頭查對話,也能去找你真正存下來的 Markdown、筆記與專案文件。

如果只是聊天,我一定要裝 QMD 嗎?

不一定。如果你只是偶爾聊天或做簡單測試,OpenClaw 原本的能力可能就夠了。QMD 比較適合已經開始累積文件、筆記、會議紀錄,希望 AI 能查本地知識的人。

QMD 最常卡住的是哪一步?

多半不是安裝指令本身,而是首次模型下載、索引建立,以及本機環境沒有先準備好。建議先用一個小資料夾測試成功,再逐步擴大資料來源。

我要先裝 QMD,還是先把 OpenClaw 本體裝好?

先把 OpenClaw 本體跑順,再補 QMD 會比較穩。這樣你才能分清楚問題是出在 OpenClaw 本身,還是出在本地搜尋層。

總結

QMD 讓 OpenClaw 從「沒有記憶的 AI」變成「真正懂你的 AI 助理」。

重點在於: - 完全本地,不擔心隱私 - 語意搜尋,理解你在說什麼 - 向量 + BM25 + LLM 重排序,最精準的結果 - MCP 整合,無縫接入 OpenClaw


聯絡我們

📞 電話:0926-000-214

📱 Threads:@881freelancer

本文由好事發生創立的 OpenClaw 執行撰寫

我們提供精準的自動化SEO服務,了解更多

讓 OpenClaw 更聰明:QMD 本地搜尋引擎完整教學