> 技术文档 > FastMCP - 快速、Pythonic风格的构建MCP server 和 client

FastMCP - 快速、Pythonic风格的构建MCP server 和 client


文章目录

    • 一、关于 FastMCP
      • 相关链接资源
      • 快速构建示例
      • 什么是MCP?
      • 为什么选择FastMCP?
      • 核心特性
      • v2 版本更新内容
    • 二、安装
      • 添加
      • 验证安装
      • 安装用于开发
    • 三、核心概念
      • 1、`FastMCP` 服务器
      • 2、工具
      • 3、资源
      • 4、提示
      • 5、上下文
      • 6、图片
      • 7、MCP 客户端
        • 7.1 客户端方法
        • 7.2 运输选项
        • 7.3 LLM Sampling
        • 7.4 根访问
    • 四、高级功能
      • 1、代理服务器
      • 2、组成 MCP 服务器
      • 3、OpenAPI & FastAPI 生成
      • 4、处理 `stderr`
    • 五、运行您的服务器
      • 1、开发模式(推荐用于构建和测试)
      • 2、Claude 桌面集成(常规使用)
      • 3、直接执行(适用于高级用例)
      • 4、服务器对象名称
    • 六、示例

一、关于 FastMCP

模型上下文协议 (MCP) 是一种新的、标准化的方式,为您的LLMs提供上下文和工具,FastMCP使构建MCP服务器和客户端变得简单直观。创建工具、公开资源、定义提示,并使用干净、Pythonic的代码连接组件。


相关链接资源

  • github : https://github.com/jlowin/fastmcp
  • 📚文档: https://gofastmcp.com

快速构建示例

# server.pyfrom fastmcp import FastMCPmcp = FastMCP(\"Demo 🚀\")@mcp.tool()def add(a: int, b: int) -> int: \"\"\"Add two numbers\"\"\" return a + bif __name__ == \"__main__\": mcp.run()

fastmcp run server.py

什么是MCP?

模型上下文协议(MCP) 允许您以安全、标准化的方式构建服务器,这些服务器可以将数据和功能暴露给大型语言模型(LLM)应用。想象一下,它就像一个Web API,但专门为LLM交互设计。MCP服务器可以:

  • 通过资源(类似于GET端点;将信息加载到上下文中)暴露数据
  • 通过工具(类似于POST/PUT端点;执行操作)提供功能
  • 通过提示(可重用的模板)定义交互模式
  • 以及更多!

FastMCP提供了一个高级的Pythonic接口,用于构建和与这些服务器交互。


为什么选择FastMCP?

MCP协议功能强大,但实现它需要大量的模板代码——服务器设置、协议处理程序、内容类型、错误管理。FastMCP处理所有复杂的协议细节和服务器管理,让您可以专注于构建优秀的工具。它旨在提供高级且Python风格的接口;在大多数情况下,只需装饰一个函数即可。

FastMCP的目标是:

🚀 快速:高级接口意味着代码更少,开发更快

🍀 简单:用最少的模板代码构建MCP服务器

🐍 Python风格:对Python开发者来说感觉自然

🔍 完整:FastMCP旨在为服务器和客户端提供核心MCP规范的完整实现


核心特性


服务器
  • 创建:使用直观的装饰器以最小化样板代码创建服务器
  • 代理:将现有服务器代理以修改配置或传输
  • 组合:将服务器组合成复杂的应用程序
  • 生成:从 OpenAPI 规范或 FastAPI 对象生成服务器

客户端
  • 交互与MCP服务器进行程序化交互
  • 连接使用任何传输方式连接到任何MCP服务器
  • 测试无需人工干预测试您的服务器
  • 创新利用核心MCP功能,如LLM采样进行创新

v2 版本更新内容

FastMCP 1.0 使得构建 MCP 服务器变得非常简单,现在它已成为 官方模型上下文协议 Python SDK 的一部分!对于基本用例,您可以通过导入 mcp.server.fastmcp.FastMCP(或安装 fastmcp=1.0)来使用上游版本。

基于 MCP 生态系统的演变,FastMCP 2.0 在这个基础上引入了各种新功能(以及更多实验性想法)。它添加了高级功能,如代理和组合 MCP 服务器,以及从 OpenAPI 规范或 FastAPI 对象自动生成它们。FastMCP 2.0 还引入了新的客户端功能,如 LLM 抽样。


二、安装

我们强烈建议使用 uv 来安装 FastMCP,因为它对于通过 CLI 部署服务器是必需的:


添加

uv add fastmcp

直接安装

uv pip install fastmcp

验证安装

查看版本

fastmcp version

安装用于开发

git clone https://github.com/jlowin/fastmcp.gitcd fastmcp# Install with dev dependenciesuv sync

这将安装所有依赖

运行测试:

pytest

三、核心概念

这些是使用熟悉的基于装饰器的方法创建MCP服务器的构建块。


1、FastMCP 服务器

代表您的 MCP 应用程序的核心对象。它处理连接、协议细节和路由。


from fastmcp import FastMCP# Create a named servermcp = FastMCP(\"My App\")# Specify dependencies needed when deployed via `fastmcp install`mcp = FastMCP(\"My App\", dependencies=[\"pandas\", \"numpy\"])

2、工具

工具允许LLMs通过执行您的Python函数来执行操作。它们非常适合涉及计算、外部API调用或副作用的任务。

使用@mcp.tool()装饰同步或异步函数。FastMCP会根据类型提示 和 文档字符串 自动生成必要的MCP模式。

可以使用Pydantic模型来处理复杂的输入。


import httpxfrom pydantic import BaseModelclass UserInfo(BaseModel): user_id: int notify: bool = False@mcp.tool()async def send_notification(user: UserInfo, message: str) -> dict: \"\"\"Sends a notification to a user if requested.\"\"\" if user.notify: # Simulate sending notification print(f\"Notifying user {user.user_id}: {message}\") return {\"status\": \"sent\", \"user_id\": user.user_id} return {\"status\": \"skipped\", \"user_id\": user.user_id}@mcp.tool()def get_stock_price(ticker: str) -> float: \"\"\"Gets the current price for a stock ticker.\"\"\" # Replace with actual API call prices = {\"AAPL\": 180.50, \"GOOG\": 140.20} return prices.get(ticker.upper(), 0.0)

3、资源

资源将数据暴露给LLMs。它们应主要提供信息,而不进行显著的计算或副作用(如GET请求)。

使用@mcp.resource(\"your://uri\")装饰函数。

在URI中使用花括号{}定义动态资源(模板),其中URI的部分将成为函数参数。


# Static resource returning simple text@mcp.resource(\"config://app-version\")def get_app_version() -> str: \"\"\"Returns the application version.\"\"\" return \"v2.1.0\"# Dynamic resource template expecting a \'user_id\' from the URI@mcp.resource(\"db://users/{user_id}/email\")async def get_user_email(user_id: str) -> str: \"\"\"Retrieves the email address for a given user ID.\"\"\" # Replace with actual database lookup emails = {\"123\": \"alice@example.com\", \"456\": \"bob@example.com\"} return emails.get(user_id, \"not_found@example.com\")# Resource returning JSON data@mcp.resource(\"data://product-categories\")def get_categories() -> list[str]: \"\"\"Returns a list of available product categories.\"\"\" return [\"Electronics\", \"Books\", \"Home Goods\"]

4、提示

提示定义了可重用的模板或交互模式,用于LLM。

它们有助于指导LLM 如何有效地使用服务器的能力。

使用@mcp.prompt()装饰函数。该函数应返回所需的提示内容,可以是简单的字符串、Message对象(如UserMessageAssistantMessage),或这些对象的列表。


from fastmcp.prompts.base import UserMessage, AssistantMessage@mcp.prompt()def ask_review(code_snippet: str) -> str: \"\"\"Generates a standard code review request.\"\"\" return f\"Please review the following code snippet for potential bugs and style issues:\\n```python\\n{code_snippet}\\n```\"@mcp.prompt()def debug_session_start(error_message: str) -> list[Message]: \"\"\"Initiates a debugging help session.\"\"\" return [ UserMessage(f\"I encountered an error:\\n{error_message}\"), AssistantMessage(\"Okay, I can help with that. Can you provide the full traceback and tell me what you were trying to do?\") ]

5、上下文

通过添加一个使用 fastmcp.Context 类型提示的参数,在您的工具或资源功能中 获取 MCP 服务器功能。


from fastmcp import Context, FastMCPmcp = FastMCP(\"Context Demo\")@mcp.resource(\"system://status\")async def get_system_status(ctx: Context) -> dict: \"\"\"Checks system status and logs information.\"\"\" await ctx.info(\"Checking system status...\") # Perform checks await ctx.report_progress(1, 1) # Report completion return {\"status\": \"OK\", \"load\": 0.5, \"client\": ctx.client_id}@mcp.tool()async def process_large_file(file_uri: str, ctx: Context) -> str: \"\"\"Processes a large file, reporting progress and reading resources.\"\"\" await ctx.info(f\"Starting processing for {file_uri}\") # Read the resource using the context file_content_resource = await ctx.read_resource(file_uri) file_content = file_content_resource[0].content # Assuming single text content lines = file_content.splitlines() total_lines = len(lines) for i, line in enumerate(lines): # Process line... if (i + 1) % 100 == 0: # Report progress every 100 lines await ctx.report_progress(i + 1, total_lines) await ctx.info(f\"Finished processing {file_uri}\") return f\"Processed {total_lines} lines.\"

6、图片

使用 fastmcp.Image 辅助类轻松处理图片输出。
以下代码需要安装 pillow 库。

from mcp.server.fastmcp import FastMCP, Imagefrom io import BytesIOtry: from PIL import Image as PILImageexcept ImportError: raise ImportError(\"Please install the `pillow` library to run this example.\")mcp = FastMCP(\"My App\")@mcp.tool()def create_thumbnail(image_path: str) -> Image: \"\"\"Create a thumbnail from an image\"\"\" img = PILImage.open(image_path) img.thumbnail((100, 100)) buffer = BytesIO() img.save(buffer, format=\"PNG\") return Image(data=buffer.getvalue(), format=\"png\")

7、MCP 客户端

Client 类允许您从 Python 代码中 与任何 MCP 服务器(不仅仅是 FastMCP 服务器)进行交互:


from fastmcp import Clientasync with Client(\"path/to/server\") as client: # Call a tool result = await client.call_tool(\"weather\", {\"location\": \"San Francisco\"}) print(result) # Read a resource res = await client.read_resource(\"db://users/123/profile\") print(res)

7.1 客户端方法

Client 类公开了几个用于与 MCP 服务器交互的方法。


async with Client(\"path/to/server\") as client: # List available tools tools = await client.list_tools() # List available resources resources = await client.list_resources() # Call a tool with arguments result = await client.call_tool(\"generate_report\", {\"user_id\": 123}) # Read a resource user_data = await client.read_resource(\"db://users/123/profile\") # Get a prompt greeting = await client.get_prompt(\"welcome\", {\"name\": \"Alice\"}) # Send progress updates await client.progress(\"task-123\", 50, 100) # 50% complete # Basic connectivity testing await client.ping()

7.2 运输选项

FastMCP支持多种传输协议以连接到MCP服务器:


from fastmcp import Clientfrom fastmcp.client.transports import ( SSETransport, PythonStdioTransport, FastMCPTransport)# Connect to a server over SSE (common for web-based MCP servers)async with Client(SSETransport(\"http://localhost:8000/mcp\")) as client: # Use client here...# Connect to a Python script using stdio (useful for local tools)async with Client(PythonStdioTransport(\"path/to/script.py\")) as client: # Use client here...# Connect directly to a FastMCP server object in the same processfrom your_app import mcp_serverasync with Client(FastMCPTransport(mcp_server)) as client: # Use client here...

7.3 LLM Sampling

采样是MCP(多客户端协议)的一个功能,允许服务器从客户端的LLM(大型语言模型)请求完成,从而在保持服务器安全性和隐私性的同时,实现复杂的使用场景。


import marvin # Or any other LLM clientfrom fastmcp import Client, Context, FastMCPfrom fastmcp.client.sampling import RequestContext, SamplingMessage, SamplingParams# -- SERVER SIDE --# Create a server that requests LLM completions from the clientmcp = FastMCP(\"Sampling Example\")@mcp.tool()async def generate_poem(topic: str, context: Context) -> str: \"\"\"Generate a short poem about the given topic.\"\"\" # The server requests a completion from the client LLM response = await context.sample( f\"Write a short poem about {topic}\", system_prompt=\"You are a talented poet who writes concise, evocative verses.\" ) return response.text@mcp.tool()async def summarize_document(document_uri: str, context: Context) -> str: \"\"\"Summarize a document using client-side LLM capabilities.\"\"\" # First read the document as a resource doc_resource = await context.read_resource(document_uri) doc_content = doc_resource[0].content # Assuming single text content # Then ask the client LLM to summarize it response = await context.sample( f\"Summarize the following document:\\n\\n{doc_content}\", system_prompt=\"You are an expert summarizer. Create a concise summary.\" ) return response.text# -- CLIENT SIDE --# Create a client that handles the sampling requestsasync def sampling_handler( messages: list[SamplingMessage], params: SamplingParams, ctx: RequestContext, ) -> str: \"\"\"Handle sampling requests from the server using your preferred LLM.\"\"\" # Extract the messages and system prompt prompt = [m.content.text for m in messages if m.content.type == \"text\"] system_instruction = params.systemPrompt or \"You are a helpful assistant.\" # Use your preferred LLM client to generate completions return await marvin.say_async( message=prompt, instructions=system_instruction, )# Connect them togetherasync with Client(mcp, sampling_handler=sampling_handler) as client: result = await client.call_tool(\"generate_poem\", {\"topic\": \"autumn leaves\"}) print(result.content[0].text)

7.4 根访问

FastMCP公开了MCP根功能,允许客户端指定它们可以访问的文件系统根。这为需要处理文件的工具创建了一个安全边界。请注意,服务器必须明确考虑客户端的根。


from fastmcp import Client, RootsList# Specify file roots that the client can accessroots = [\"file:///path/to/allowed/directory\"]async with Client(mcp_server, roots=roots) as client: # Now tools in the MCP server can access files in the specified roots await client.call_tool(\"process_file\", {\"filename\": \"data.csv\"})

四、高级功能

在核心概念的基础上,FastMCP v2 引入了针对更复杂场景的强大功能:


1、代理服务器

创建一个FastMCP服务器,充当中间代理,将请求代理到另一个MCP端点(这可能是一个服务器或另一个客户端连接)。

使用场景:

  • 传输转换: 将运行在Stdio(如许多本地工具)上的服务器通过SSE或WebSockets暴露出来,使其可被Web客户端或Claude桌面访问。
  • 添加功能: 包装现有服务器以添加身份验证、请求记录或修改工具行为。
  • 聚合服务器: 在单个代理接口后组合多个后端MCP服务器(尽管mount可能更简单)。

import asynciofrom fastmcp import FastMCP, Clientfrom fastmcp.client.transports import PythonStdioTransport# Create a client that connects to the original serverproxy_client = Client( transport=PythonStdioTransport(\'path/to/original_stdio_server.py\'), )# Create a proxy server that connects to the client and exposes its capabilitiesproxy = FastMCP.from_client(proxy_client, name=\"Stdio-to-SSE Proxy\")if __name__ == \"__main__\": proxy.run(transport=\'sse\')

2、组成 MCP 服务器

通过创建模块化的 FastMCP 服务器并将它们“挂载”到父服务器上,来构建更大的 MCP 应用程序。这会自动处理工具名称和资源 URI 的前缀,从而防止冲突。


from fastmcp import FastMCP# --- Weather MCP ---weather_mcp = FastMCP(\"Weather Service\")@weather_mcp.tool()def get_forecast(city: str): return f\"Sunny in {city}\"@weather_mcp.resource(\"data://temp/{city}\")def get_temp(city: str): return 25.0# --- News MCP ---news_mcp = FastMCP(\"News Service\")@news_mcp.tool()def fetch_headlines(): return [\"Big news!\", \"Other news\"]@news_mcp.resource(\"data://latest_story\")def get_story(): return \"A story happened.\"# --- Composite MCP ---mcp = FastMCP(\"Composite\")# Mount sub-apps with prefixesmcp.mount(\"weather\", weather_mcp) # Tools prefixed \"weather/\", resources prefixed \"weather+\"mcp.mount(\"news\", news_mcp) # Tools prefixed \"news/\", resources prefixed \"news+\"@mcp.tool()def ping(): return \"Composite OK\"if __name__ == \"__main__\": mcp.run()

3、OpenAPI & FastAPI 生成

通过自动从现有网络 API 中生成 FastMCP 服务器,利用您的现有网络 API。

默认情况下,应用以下规则:

  • GET 请求 -> MCP 资源
  • 带路径参数的 GET 请求 -> MCP 资源模板
  • 所有其他 HTTP 方法 -> MCP 工具

您可以覆盖这些规则来自定义或忽略某些端点。

从 FastAPI:


from fastapi import FastAPIfrom fastmcp import FastMCP# Your existing FastAPI applicationfastapi_app = FastAPI(title=\"My Existing API\")@fastapi_app.get(\"/status\")def get_status(): return {\"status\": \"running\"}@fastapi_app.post(\"/items\")def create_item(name: str, price: float): return {\"id\": 1, \"name\": name, \"price\": price}# Generate an MCP server directly from the FastAPI appmcp_server = FastMCP.from_fastapi(fastapi_app)if __name__ == \"__main__\": mcp_server.run()

import httpximport jsonfrom fastmcp import FastMCP# Load the OpenAPI spec (dict)# with open(\"my_api_spec.json\", \"r\") as f:# openapi_spec = json.load(f)openapi_spec = { ... } # Your spec dict# Create an HTTP client to make requests to the actual API endpointhttp_client = httpx.AsyncClient(base_url=\"https://api.yourservice.com\")# Generate the MCP servermcp_server = FastMCP.from_openapi(openapi_spec, client=http_client)if __name__ == \"__main__\": mcp_server.run()

4、处理 stderr

MCP 规范允许服务器将任何它想要写入的内容写入 stderr,并且没有以任何方式指定格式。FastMCP 将将服务器的 stderr 转发到客户端的 stderr


五、运行您的服务器

选择最适合您需求的方法:


1、开发模式(推荐用于构建和测试)

使用 fastmcp dev 以获得带有 MCP 检查器的交互式测试环境。


fastmcp dev your_server_file.py# With temporary dependenciesfastmcp dev your_server_file.py --with pandas --with numpy# With local package in editable modefastmcp dev your_server_file.py --with-editable .

2、Claude 桌面集成(常规使用)

使用 fastmcp install 命令来设置您的服务器,以便在 Claude 桌面应用程序中持久使用。它负责使用 uv 创建一个隔离的环境。


fastmcp install your_server_file.py# With a custom name in Claudefastmcp install your_server_file.py --name \"My Analysis Tool\"# With extra packages and environment variablesfastmcp install server.py --with requests -v API_KEY=123 -f .env

3、直接执行(适用于高级用例)

直接运行您的服务器脚本,用于Claude之外的定制部署或集成。您自己管理环境和依赖。

将以下内容添加到您的 your_server_file.py 文件中:


if __name__ == \"__main__\": mcp.run() # Assuming \'mcp\' is your FastMCP instance

python your_server_file.py# oruv run python your_server_file.py

4、服务器对象名称

如果您的 FastMCP 实例名称不是 mcpserverapp,请在 devinstall 命令中使用 file:object 语法来指定它:


fastmcp dev my_module.py:my_mcp_instancefastmcp install api.py:api_app

六、示例

探索 examples/ 目录以获取展示各种功能的代码示例:

  • simple_echo.py:基本工具、资源和提示。
  • complex_inputs.py:使用 Pydantic 模型进行工具输入。
  • mount_example.py:挂载多个 FastMCP 服务器。
  • sampling.py:在您的 MCP 服务器中使用 LLM 补充。
  • screenshot.py:返回 Image 对象的工具。
  • text_me.py:与外部 API 交互的工具。
  • memory.py:具有数据库交互的更复杂示例。



伊织 xAI 2025-05-03(六)