【GitHub开源项目实战】Void:开源 AI IDE 编码助手实战解析_void ai工具配置使用代理
Void:开源 AI IDE 编码助手实战解析
关键词:Void、AI IDE、编码助手、代码生成、Agentic 编程、多模型推理、开源项目、VoidEditor
摘要
Void 是一个面向开发者的开源 AI 编码环境,由 VoidEditor 团队开发,旨在通过高度集成的 LLM 编程工作流、Agent 插件系统与多语言支持,为开发者提供可扩展、模块化的 AI 驱动型 IDE 编码助手体验。项目支持通过自然语言指令生成代码、解释函数、调试脚本、自动补全逻辑与迭代开发过程,具备 Chat 编辑器、文件树管理、多窗口导航、终端集成等一体化交互能力。
Void 不同于传统的 VSCode 插件式 AI 工具,它提供了一个从零构建的轻量桌面级 IDE,内嵌多模型语言支持、Agent 执行器系统和本地/远程模型切换机制,适合个人开发者与小型团队部署、定制和二次开发。
目录
- 项目背景与核心定位
- 功能结构与使用体验解析
- 本地部署与启动流程指南
- 模型支持机制与调用逻辑
- Agent 插件扩展体系解析
- Prompt-Command 执行链条设计
- 多窗口 UI 与代码编辑交互设计
- 文件系统、版本快照与上下文融合
- 实战案例:Chat 指令驱动脚本生成与调试
- 未来计划、局限性与社区参与建议
第一章|项目背景与核心定位
GitHub 地址:https://github.com/voideditor/void
Void 是一个由 VoidEditor 开发团队构建的开源 AI 编码助手,旨在提供一个原生集成 AI Agent、自然语言指令驱动、可交互操作的轻量级本地 IDE 工具。相较于仅作为插件存在的 Copilot、Continue 等工具,Void 的最大特征是:自身即 IDE,同时又是完整的 AI 代码智能体工作平台。
其核心目标为:
- 重构开发者与代码之间的交互方式;
- 让自然语言成为主导编码过程的控制语言;
- 将 LLM 融入文件操作、函数解释、模块生成、脚本调试等日常任务中;
- 为 AI 编程助手打造更具一致性的界面系统与可控 Agent 运行环境。
项目定位概览
Void 不只是“接入大模型”的开发辅助工具,它是一个面向 Agent 编程与语言驱动开发的轻 IDE 框架,将 Agent 能力、Prompt 流程、Chat 上下文、多文档编辑、语义跳转等交互模式整合为统一的界面闭环,为 AI 编程场景提供了一种新的系统性产品形态。
第二章|功能结构与使用体验解析
Void 的用户界面与交互流程围绕“AI 编码助手”这一目标精心设计,主要功能模块分为以下几个维度:
1. Chat Prompt 编辑器
-
支持多轮上下文语义;
-
可绑定当前打开文件,进行基于上下文的代码解释、函数分析;
-
Prompt 支持 Markdown 与代码高亮,支持切换模型引擎;
-
指令示例:
- “解释这段代码的功能与潜在错误”
- “为这个函数添加类型注解与边界检查”
- “将这个类拆分成三个独立模块”
2. 文件管理与上下文加载
- 支持加载本地整个项目目录;
- 左侧文件树可浏览、打开、编辑;
- Chat 区可自动将当前编辑的文件作为上下文注入;
- 支持文件内容摘要生成、函数级定位、语义片段引用等操作。
3. 多窗口与多标签支持
- 可在多个标签页中同时编辑不同文件;
- 每个标签页可绑定独立的对话上下文,便于同时处理多个逻辑单元;
- 支持 Chat-Editor 视图切换模式,在一个界面中实现对话 + 代码并排查看。
4. 模型切换与设置
- 右上角支持自由选择 LLM 模型(如 GPT-3.5, GPT-4, Claude);
- 支持自定义 API Key 设置;
- 本地部署用户可绑定 Ollama / LM Studio 等运行时地址;
- 支持每个模型配置 temperature、top_p 等高级参数。
5. Prompt-to-Code 与语义重构能力
Void 所集成的 Prompt-to-Code 能力支持以下几类智能生成:
- 函数骨架生成(基于自然语言描述函数需求);
- 脚本/工具生成(如“生成一个将 JSON 转 CSV 的脚本”);
- 重构优化(将 imperative 风格转为 declarative,或添加类型检查);
- Bug 检查与修复建议(可高亮出潜在语义冲突);
- 函数注释/类型提示/测试用例补全。
这种指令型交互体验在 UI 上通过双栏同步、嵌入代码块展示与编辑器同步粘贴的形式,极大提高了指令执行的透明度与可控性。
Void 并非提供黑盒自动化输出,而是强调在自然语言驱动下开发者始终处于可观察、可修订、可编辑的控制环中。
第三章|本地部署与启动流程指南
Void 作为一款桌面级 AI IDE,完全采用 Electron 构建,具备良好的跨平台运行特性。目前官方提供 macOS、Windows 与 Linux 的预构建版本,并支持从源代码构建以便于高级自定义与开发。
1. 下载安装(推荐方式)
macOS & Windows 用户
- 直接访问项目地址:https://github.com/voideditor/void/releases
- 下载对应系统平台的
.dmg(macOS)、.exe(Windows)或.AppImage(Linux)安装包; - 安装后直接运行,首次启动可设置模型 API Key 与默认工作目录;
- 无需命令行配置,即可打开界面进入 AI 编码环境。
Linux 用户
- 下载
.AppImage并赋予执行权限:
chmod +x void-x.y.z.AppImage./void-x.y.z.AppImage
2. 从源代码构建(高级开发者)
Void 源码托管于 GitHub,可通过以下方式手动构建本地版本:
git clone https://github.com/voideditor/void.gitcd voidnpm installnpm run dev
上述命令将自动启动本地开发调试窗口(Electron DevTools 可调试 UI 渲染与模型交互逻辑)。
构建生产版本:
npm run build
可用于打包成可分发的桌面应用安装包。
3. 配置环境变量与模型密钥
首次启动时,Void 会引导设置以下项:
- 默认模型服务(GPT-4、Claude、Gemini、OpenRouter 等);
- 模型 API Key(在设置界面填写或从
.env文件中读取); - 是否启用自动上下文提取与文件分析;
- 是否将对话记录保存到本地(用于记忆状态恢复)。
用户亦可手动在用户目录 .void/ 下创建 config.json 文件进行高级配置。
4. 网络代理与模型连接测试
如所在网络需代理访问模型 API,建议在设置中填入代理地址:
{ \"http_proxy\": \"http://127.0.0.1:7890\", \"https_proxy\": \"http://127.0.0.1:7890\"}
启动后,在右上角切换模型,点击“测试连接”按钮,验证模型连通性与响应时间。
5. 故障排查建议
Void 的部署与启动流程相较于云端工具具备更高的本地掌控力,不仅利于隐私保护,也更便于嵌入到个性化开发环境中。下一章节将介绍其多模型架构及如何在运行时完成模型动态切换与任务适配。
第四章|模型支持机制与调用逻辑
Void 支持灵活配置和切换多种 LLM 引擎,兼顾本地运行、自托管服务与主流 API 供应商,以适应不同用户对性能、稳定性、隐私与上下文容量的需求。
1. 支持的模型类型
用户可在“设置 - 模型”页中选择默认模型,也可为每次对话独立选择模型。
2. 动态模型切换与 Prompt 调度机制
Void 为每一个 Prompt 调用设置了动态 dispatch 层,用于:
- 判断当前任务类型(解释 / 生成 / 修复);
- 根据任务复杂度匹配最佳模型(如 Claude 处理多文件,GPT-4 精修生成);
- 允许用户通过 Prompt 标签(如
#use claude)强制选择模型。
在调用接口前,Void 会统一封装上下文信息,包括:
- 当前文件内容摘要;
- Chat 历史上下文;
- 当前指令所属文件路径与语言类型;
- 用户模型参数配置(如 temperature、max_token)。
3. 多模型组合策略建议
根据测试反馈与社区实践,推荐如下模型组合:
Void 在模型接入方面不做锁定,最大限度开放用户自由组合能力,是其区别于传统 IDE 插件式工具的重要特征。
第五章|Agent 插件扩展体系解析
Void 的架构从一开始就围绕“Agent 可扩展性”构建,用户不仅可以调用不同模型处理编码任务,还可以通过自定义插件拓展其 Agent 能力,实现更细粒度的工作流控制、代码操作能力及外部工具集成。
1. 插件体系总体结构
Void 插件基于 Node.js 模块体系设计,通过注册入口暴露功能清单和执行逻辑,插件可用于:
- 增加新的自然语言指令;
- 接入外部代码分析工具;
- 注册文件操作器、文件生成模板;
- 接入 Web API(如 GitHub Copilot API、SonarQube 等);
- 定义语义动作链(Prompt → 执行 → 回调反馈)。
插件结构如下:
/void-plugins/└── my-plugin/ ├── index.js ├── manifest.json └── handlers/ ├── audit.js └── format.js
其中 manifest.json 包含插件元信息,handlers/ 为具体任务逻辑,每个 handler 对应一个 Agent 指令注册模块。
2. 插件注册机制
Void 启动时会扫描 .void/plugins/ 目录,并自动加载其中的 manifest 文件与执行模块。每个插件可注册以下能力:
例如,一个插件注册如下指令:
{ \"name\": \"code-auditor\", \"commands\": [\"audit this file\", \"check for security issues\"], \"contextRequire\": true, \"outputType\": \"markdown\"}
Void 在识别到用户 Chat Prompt 包含该指令关键词时,会调用该插件逻辑并将当前文件内容、路径、模型结果等信息作为上下文传入。
3. 插件典型示例
a. 安全审计插件(CodeAuditor)
- 接收当前文件内容;
- 扫描 hardcoded credentials、open shell 调用、无验证用户输入等模式;
- 输出建议与风险等级;
- 可调用 OpenAI 模型辅助解释审计结果。
b. 单元测试生成插件(AutoTestGen)
- 根据函数定义自动生成 Jest / Pytest 格式测试文件;
- 根据函数签名构造输入输出边界测试;
- 可选是否生成 mock 数据与覆盖率提示。
c. 文件重命名批处理插件(BatchRename)
- 通过自然语言描述命名规则;
- 支持正则替换、CamelCase 转换等;
- 自动更新项目引用路径。
4. 插件沙箱与安全性
Void 插件运行于独立沙箱进程,具备以下限制:
- 不可访问宿主文件系统(除非明确声明路径);
- 所有外部 HTTP 请求均需通过代理接口转发;
- 默认不支持写入编辑器文件,需显式启用
allowWrite=true。
第六章|Prompt-Command 执行链条设计
Void 的自然语言指令并非单轮交互,而是设计了完整的 Prompt-Command 解析与执行链路。该机制保障指令的结构化传递、任务分解与 Agent 能力模块的动态组合执行。
1. 执行链总览
[Prompt] → [意图识别] → [任务映射] → [Agent 执行器] → [模型反馈处理] → [结果插入/展示]
每个步骤都由不同模块处理,具体如下:
- 意图识别器:通过关键词 + LLM 分类器判断用户意图;
- 任务映射器:将意图绑定至插件或内置命令,如“解释函数” → explainHandler;
- 执行器:读取上下文、处理代码或文件系统信息;
- 反馈处理器:将 LLM 响应格式化为 Markdown / 代码补丁;
- 注入模块:将输出粘贴入编辑器指定位置,或以弹窗方式展示。
2. 多任务链协同执行
Void 允许多个任务链并行执行,典型用法如:
请帮我:1. 检查 main.py 中是否存在安全隐患;2. 将 utils.py 的函数改写为类型注解方式;3. 创建 tests/test_main.py 测试文件。
系统会拆解为 3 个子任务,分别交由对应执行器或插件链处理,处理完成后统一汇总展示。
3. 自定义 Prompt 模板与执行预设
Void 允许用户自定义 Prompt 模板,如定义一个“优化函数”指令:
{ \"name\": \"optimize-fn\", \"trigger\": \"optimize this function\", \"template\": \"Please optimize the following function for performance and readability:\\n\\n{{code}}\", \"outputFormat\": \"patch\"}
当用户选中文本后触发此命令,系统自动将函数内容注入 {{code}} 占位符中并发送至模型。
4. 状态追踪与异常容错机制
- 所有执行过程可在底部终端面板中查看;
- 若模型超时 / 插件出错,系统自动回退状态并提示原因;
- 用户可手动中止当前任务链、重新注入 Prompt 或更换模型重试。
Prompt-Command 执行链的存在,使 Void 在自然语言驱动编码过程中具备了模块化、工程化的执行基础,保障任务可控、结构清晰并具备可维护性。
第七章|多窗口 UI 与代码编辑交互设计
Void 的界面交互逻辑围绕“自然语言控制编码”的核心理念展开,采用多窗口、上下文同步、Chat-Editor 双视图并行模式,极大提高了 AI 编程过程中的可观察性与可干预性。
1. 核心 UI 结构设计
整个 Void 编辑器界面划分为五个主要区域:
- 左侧文件资源树:展示本地文件目录结构,支持多级展开、文件拖拽与快速定位;
- 中部主编辑区:多标签页结构,每个标签页绑定一个文件视图;
- 右侧 Chat 面板:与当前活跃文件绑定,支持对话驱动的解释/重构/生成/修复等操作;
- 底部终端区:展示系统任务执行日志、插件运行反馈、错误提示;
- 顶部工具栏:模型选择、API Key 配置、插件管理、指令模板访问等功能入口。
此种设计最大限度保证了 AI 操作不脱离编辑上下文,开发者既可观察执行效果,又可随时干预并撤销。
2. 多标签页与多任务上下文管理
- 每打开一个新文件,即生成一个新的编辑标签页;
- 每个标签页维护独立的 Prompt 历史、执行链与模型配置(支持记忆);
- 用户可在不同文件之间切换,也可在一个文件中同时开启多个 Chat 会话(例如“解释函数 A” 与 “重构函数 B”);
- 所有任务状态实时追踪,失败会标红,执行成功则可导出日志或结果补丁。
3. Chat-Editor 双视图联动机制
Void 提供了三种视图模式:
- 聚焦编辑模式:隐藏 Chat 区,仅保留主编辑器,适合纯代码输入;
- 并列视图模式:Chat 与编辑器左右分栏,适合边调试边交互的场景;
- 嵌入视图模式:Chat 输出内容直接以 Markdown 插入编辑器预览区域,支持点击代码块“一键替换”或“复制”操作。
此机制让 Chat 输出与用户操作形成闭环,避免传统 AI 工具中“结果跳出上下文”的割裂体验。
4. 高级交互功能
- 指令联想系统:输入自然语言时,底部实时推荐可用指令(插件注册或模板提示);
- 高亮编辑回溯:模型修改过的区域自动高亮,可点击回看前后差异;
- 对话快照保存:所有对话记录可保存为快照,日后可重用或导出为
.md归档; - 实时模型响应预览:正在生成时支持逐 token 流式输出;
- 代码插入定位机制:支持通过
// @ai:insert_here注释标记插入位置,增强 AI 输出结构控制。
第八章|文件系统、版本快照与上下文融合
Void 的底层文件系统与 AI 交互机制深度整合,提供完整的版本缓存、变更追踪、上下文构造与文件安全保护能力,适合在中大型项目结构下运行。
1. 文件读取与上下文构建机制
- 每次模型调用时,系统会将当前文件内容读取并摘要为 token 窗口上下文;
- 若为多文件任务(如“解释整个模块”),系统将自动构建依赖树,选取调用链中关键文件作为上下文注入;
- 文件内容摘要采用分段滑窗策略,优先注入被用户选中、当前光标所在函数或变更频繁模块。
2. 文件写入与变更控制策略
- 所有模型生成内容不会直接修改原始文件,而是以“补丁预览”形式呈现;
- 用户点击确认后,系统会保存一份
.void_snapshots/快照,并将 diff 应用到原文件; - 支持撤销最近 10 次 AI 操作(Undo 栈);
- 若用户编辑内容与 AI 输出冲突,系统会提示手动合并或跳过写入。
3. 快照与版本管理
-
所有基于 AI 的改写操作均保留快照文件,命名方式为:
[timestamp]_[filename]_[action].snapshot -
快照可通过 UI 快捷面板“历史操作”浏览、对比、恢复;
-
快照支持导出为 patch 文件,便于集成至 Git 版本控制系统。
4. 上下文融合与 LLM 响应增强策略
为解决模型响应漂移问题,Void 采用以下优化路径:
- 基于上下文摘要进行重构:仅提取函数签名与注释而非整文件全文;
- 动态调整 prompt 构造策略:对于大文件,优先提问范围明确的函数/模块;
- 支持 Chain-of-Thought 模式生成复杂任务:如解释文件结构 → 提取问题函数 → 局部修复;
- 本地缓存模型响应与失败用例,供后续重试时使用。
通过对文件系统与上下文的深度融合,Void 实现了安全、可回滚、高可控的 AI 编码体验,适配中大型工程开发场景的稳定性与责任可追溯性需求。
第九章|实战案例:Chat 指令驱动脚本生成与调试
在本章节中,将以“构建一个 CSV 数据读取并格式化输出的小工具”为例,展示 Void 如何通过 Chat 指令实现完整的脚本生成、逻辑修复与最终调试落盘流程,验证其 Agent + Prompt 编程机制的工程可行性。
1. 场景需求描述
目标:生成一个 Python 脚本,从输入目录中读取 CSV 文件,提取其中指定字段并输出格式化结果到 stdout,要求具备异常处理与 UTF-8 支持。
2. 第一步:自然语言生成初始代码
用户通过 Chat 区输入如下指令:
请帮我生成一个 Python 脚本,读取 CSV 文件并打印 name 和 score 字段,要求支持 UTF-8 编码。
Void 自动完成:
- 创建
main.py文件; - 输出带有
csv.reader()、with open()、异常捕获的代码块; - 将代码粘贴入编辑器并高亮显示新建区域。
代码示例:
import csvdef read_csv(file_path): try: with open(file_path, encoding=\'utf-8\') as f: reader = csv.DictReader(f) for row in reader: print(f\"{row[\'name\']}: {row[\'score\']}\") except Exception as e: print(f\"Error reading file: {e}\")read_csv(\"sample.csv\")
3. 第二步:指令驱动重构增强
用户继续输入:
请为函数添加参数校验,判断文件是否存在且不为空。
Void 拆解逻辑:
- 插入
os.path.exists()与文件大小判断; - 使用 if-else 构造简洁路径;
- 增加 import 语句(
import os); - 提示用户:已增加文件检查逻辑。
4. 第三步:自动补全测试文件
用户输入:
请为上面的函数生成一个测试用例。
Void 自动:
- 创建
test_main.py; - 使用
unittest结构生成测试类; - 包含有效路径与无效路径两种测试情形;
- 提示用户手动添加测试文件(或让 AI 生成模拟 sample.csv)。
5. 第四步:脚本调试与输出修正
运行后发现控制台乱码,用户输入:
输出时请使用 tab 分隔字段,而不是默认空格。
Void 自动更新 print 语句为:
print(f\"{row[\'name\']}\\t{row[\'score\']}\")
此处展示了 Void 在 Prompt → 代码 → 运行 → 反馈 → 重构 的链路闭环能力,全程保持自然语言交互、编辑器高亮可视、变更可撤销、上下文不丢失。
第十章|未来计划、局限性与社区参与建议
1. 已知局限性
尽管 Void 提供了较完整的 Agent 编码平台,但在以下方面仍存在一定限制:
- 本地模型调用稳定性:Ollama 接入在部分系统(如 Windows WSL)下连接不稳定;
- 多文件语义理解受限于上下文 token 窗口,长链调用仍需人工介入;
- 插件生态尚未形成统一市场,开发者需具备一定 Node.js 能力;
- Web IDE 模式暂未提供,仅限桌面客户端运行;
- 调试器尚处基础阶段,仅支持日志输出与系统错误反馈。
2. 核心演进方向
未来官方 Roadmap 中,明确以下版本演进路径:
- 支持 Web 运行模式,构建跨平台在线编辑器版本;
- 引入内嵌 Debugger 调试器模块,支持断点、堆栈追踪、变量监控;
- 建立插件市场(Plugin Hub),支持插件评分、热加载、版本管理;
- 强化团队协作功能,引入 Chat 多用户协作、项目权限控制;
- 支持多 Agent 并行任务链,构建“规划者-执行者-校验者”三段式 Agent 工作流。
3. 社区参与建议
Void 项目处于高速开发阶段,社区活跃度高,欢迎以下方式参与:
- 提交 Issue 反馈使用 Bug 与功能建议;
- 开发插件并提交 PR 合入插件目录;
- 翻译文档、编写使用教程、发布实战博客;
- 参与模型接入(如 Yi、Qwen、DeepSeek)适配开发;
- 加入 Discord 社群与核心开发者沟通。
Void 是当前 AI 编程工具中少数实现“从 IDE 设计层支持 AI 驱动编码”的完整项目,其 Agent 化架构、插件机制、Prompt-Command 语义控制能力,为构建下一代语言优先开发环境(Prompt-first Development)提供了可靠支点。对开源开发者、智能体系统研发者、前端架构师具有极高的参考价值与落地适配空间。
个人简介
作者简介:全栈研发,具备端到端系统落地能力,专注人工智能领域。
个人主页:观熵
个人邮箱:privatexxxx@163.com
座右铭:愿科技之光,不止照亮智能,也照亮人心!
专栏导航
观熵系列专栏导航:
AI前沿探索:从大模型进化、多模态交互、AIGC内容生成,到AI在行业中的落地应用,我们将深入剖析最前沿的AI技术,分享实用的开发经验,并探讨AI未来的发展趋势
AI开源框架实战:面向 AI 工程师的大模型框架实战指南,覆盖训练、推理、部署与评估的全链路最佳实践
计算机视觉:聚焦计算机视觉前沿技术,涵盖图像识别、目标检测、自动驾驶、医疗影像等地方的最新进展和应用案例
国产大模型部署实战:持续更新的国产开源大模型部署实战教程,覆盖从 模型选型 → 环境配置 → 本地推理 → API封装 → 高性能部署 → 多模型管理 的完整全流程
Agentic AI架构实战全流程:一站式掌握 Agentic AI 架构构建核心路径:从协议到调度,从推理到执行,完整复刻企业级多智能体系统落地方案!
云原生应用托管与大模型融合实战指南
智能数据挖掘工程实践
Kubernetes × AI工程实战
TensorFlow 全栈实战:从建模到部署:覆盖模型构建、训练优化、跨平台部署与工程交付,帮助开发者掌握从原型到上线的完整 AI 开发流程
PyTorch 全栈实战专栏: PyTorch 框架的全栈实战应用,涵盖从模型训练、优化、部署到维护的完整流程
深入理解 TensorRT:深入解析 TensorRT 的核心机制与部署实践,助力构建高性能 AI 推理系统
Megatron-LM 实战笔记:聚焦于 Megatron-LM 框架的实战应用,涵盖从预训练、微调到部署的全流程
AI Agent:系统学习并亲手构建一个完整的 AI Agent 系统,从基础理论、算法实战、框架应用,到私有部署、多端集成
DeepSeek 实战与解析:聚焦 DeepSeek 系列模型原理解析与实战应用,涵盖部署、推理、微调与多场景集成,助你高效上手国产大模型
端侧大模型:聚焦大模型在移动设备上的部署与优化,探索端侧智能的实现路径
行业大模型 · 数据全流程指南:大模型预训练数据的设计、采集、清洗与合规治理,聚焦行业场景,从需求定义到数据闭环,帮助您构建专属的智能数据基座
机器人研发全栈进阶指南:从ROS到AI智能控制:机器人系统架构、感知建图、路径规划、控制系统、AI智能决策、系统集成等核心能力模块
人工智能下的网络安全:通过实战案例和系统化方法,帮助开发者和安全工程师识别风险、构建防御机制,确保 AI 系统的稳定与安全
智能 DevOps 工厂:AI 驱动的持续交付实践:构建以 AI 为核心的智能 DevOps 平台,涵盖从 CI/CD 流水线、AIOps、MLOps 到 DevSecOps 的全流程实践。
C++学习笔记?:聚焦于现代 C++ 编程的核心概念与实践,涵盖 STL 源码剖析、内存管理、模板元编程等关键技术
AI × Quant 系统化落地实战:从数据、策略到实盘,打造全栈智能量化交易系统
大模型运营专家的Prompt修炼之路:本专栏聚焦开发 / 测试人员的实际转型路径,基于 OpenAI、DeepSeek、抖音等真实资料,拆解 从入门到专业落地的关键主题,涵盖 Prompt 编写范式、结构输出控制、模型行为评估、系统接入与 DevOps 管理。每一篇都不讲概念空话,只做实战经验沉淀,让你一步步成为真正的模型运营专家。
🌟 如果本文对你有帮助,欢迎三连支持!
👍 点个赞,给我一些反馈动力
⭐ 收藏起来,方便之后复习查阅
🔔 关注我,后续还有更多实战内容持续更新



