MCP server vs 工具 vs Agent 技能
MCP 伺服器、工具使用和 Agent 技能:了解現代 AI 開發的層次
AI 原生開發加速,越來越多工程師將像 Claude、Cursor 及 VS Code AI 擴充套件等工具整合進工作流程。但混淆亦常見:
- 甚麼才是 MCP 伺服器?
- MCP 工具 和伺服器有什麼不同?
- 當我們說 工具使用,指的是什麼?
- 甚麼是 Claude 程式碼技能?又有何定位?
- 何時該使用哪一種?
- 這些層次如何配合,處理真正的工程任務?
本文會清楚、實用地解釋這三個概念、界限,以及它們如何塑造新世代軟件開發。
MCP:三個元件,一種協議
MCP(模型上下文協議,Model Context Protocol)由 Anthropic 創立,是讓 AI 模型標準化地存取外部資源、API、工具、數據庫或內部系統的方法。
核心有三個要素:
- **MCP 伺服器:**一個向 AI 客戶端暴露能力的後端服務
- **MCP 工具:**由伺服器提供、可被呼叫的具體行動
- **MCP 提供者:**如 Claude Desktop、Cursor、VS Code 擴充套件等整合
而且,這些在 MCP 以外,但經常被混淆:
- **Claude 程式碼技能:**Claude 在 IDE 內建的程式智能
理解這些層次有助於你設計更好的 AI 工作流。
工具是什麼?(AI 工具通則)
在談 MCP 工具或 Claude 程式碼技能前,先要了解「工具」在 AI 世界裡的意義。
在現代 LLM 系統中,工具指的是:
AI 模型可呼叫的外部操作,使其能在現實世界中執行動作,不只是產生純文字。
工具賦予模型行動能力。工具可以是任何東西:
- 一個 API 端點
- 資料庫查詢
- 檔案系統操作
- 瀏覽器動作
- 執行程式碼
- 寄發電子郵件
- 建立用戶
- 互動雲端資源
- 呼叫 LLM 函數
當模型決定呼叫工具時,它就跳出了純語言,執行有實際影響的行動。
工具存在的原因
工具的出現,是因為純文字模型的能力很快會遇到天花板。
模型能解釋、推理、草擬程式碼,但不能真正 觸碰 你的系統。它不會自己查詢資料庫、變更檔案、呼叫 API、部署雲端、或執行多步驟的繁複操作。
當你將一系列工具交給模型,這些斷層便消失。模型獲得一個受控方式,能與真實基礎架構互動,同時你依然能嚴格設定它能做甚 麼及如何做。工具帶來了結構、安全,以及文字模型一直無法具備的執行層。
工具使用的核心思想
工具由契約定義:
模型看到這種定義時,能:
- 理解這工具能做什麼
- 判斷何時該使用
- 構建輸入物件
- 呼叫工具
- 把輸出結果帶去下一步
工具實際上讓 LLM 成為協調者。
重要界線
常有人誤解工具,覺得它比實際更強大。其實工具不是智能,不包含商業規則、權限、或工作流程邏輯。一個工具只是模型可呼叫的、細分的小操作,僅此而已。你看到的多步工作流、決策等,並非工具本身,而是模型把數個工具串連運用與推理。
工具在 agent 生態的意義
現代 agent 框架-OpenAI Functions、Claude Tools、MCP、LangChain-原理一致:LLM 只有能實際行動時才真正有用。只說話不夠,模型必須能入手現實世界。
工具正是讓這一切可能發生的那層。它們連接了模型推理與你系統的真實能力,並在受權管制下進行。這個橋樑使 AI 不再只是被動產生文字,而是成為能提取數據、變更檔案、協調工作流、甚至觸發後端流程的操作員。
因此,工具使用已悄然成了今日幾乎所有嚴肅 AI 應用的基礎,從 IDE 助手、後台自動化到 DevOps copilots、IAM 自動化、數據 agent 和企業級工作流引擎。MCP 正是在這基礎上,為這些工具的暴露帶來一致的協議,標準化模型發現與互動真實系統能力的方式。
MCP 伺服器:AI 的後台能力層
你可以把 MCP 伺服器想像成,一個向 AI 助手暴露經過精選的能力的後端服務。不是讓模型無限制隨意存取系統,而是把你願意讓它使用的一部分包裝起來:內部 API、身份認證邏輯、資料庫操作、業務工作流或權限驗證等。
例如,一個 IAM 平台(如 Logto)可藉此暴露如下操作:
- 列出/建立組織
- 產生組織或 M2M Token
- 檢查用戶對 API 的存取權
- 讀取應用程式設定
- 根據租戶設置產生安全後端程式碼
MCP 伺服器價值在於這些能力的結構化管理。
不用到處散布整合,每樣能力都在一個定義明確的接口後面。這帶來數個實際好處:
- 多個 AI 客戶端能重用同一後台邏輯
- 安全和權限界線集中管理
- 對每個 agent 保持一致契約
- 企業系統更嚴格地控管 AI 可執行的操作
因此,MCP 伺服器特別適合需要正確性和存取控制的場景-身份系統、支付、CRM、DevOps 和內部管理工具。

