> 技术文档 > 【AI大模型前沿】GLM-4.5:智谱打造的开源SOTA模型,推理、代码与智能体能力融合先锋

【AI大模型前沿】GLM-4.5:智谱打造的开源SOTA模型,推理、代码与智能体能力融合先锋


系列篇章💥

No. 文章 1 【AI大模型前沿】深度剖析瑞智病理大模型 RuiPath:如何革新癌症病理诊断技术 2 【AI大模型前沿】清华大学 CLAMP-3:多模态技术引领音乐检索新潮流 3 【AI大模型前沿】浙大携手阿里推出HealthGPT:医学视觉语言大模型助力智能医疗新突破 4 【AI大模型前沿】阿里 QwQ-32B:320 亿参数推理大模型,性能比肩 DeepSeek-R1,免费开源 5 【AI大模型前沿】TRELLIS:微软、清华、中科大联合推出的高质量3D生成模型 6 【AI大模型前沿】Migician:清华、北大、华科联手打造的多图像定位大模型,一键解决安防监控与自动驾驶难题 7 【AI大模型前沿】DeepSeek-V3-0324:AI 模型的全面升级与技术突破 8 【AI大模型前沿】BioMedGPT-R1:清华联合水木分子打造的多模态生物医药大模型,开启智能研发新纪元 9 【AI大模型前沿】DiffRhythm:西北工业大学打造的10秒铸就完整歌曲的AI歌曲生成模型 10 【AI大模型前沿】R1-Omni:阿里开源全模态情感识别与强化学习的创新结合 11 【AI大模型前沿】Qwen2.5-Omni:阿里巴巴的多模态大模型,实现看、听、说、写一体化 12 【AI大模型前沿】SmolDocling:256M参数的轻量级多模态文档处理利器,10分钟搞定百页PDF 13 【AI大模型前沿】Stable Virtual Camera:Stability AI 推出的2D图像转3D视频模型,一键生成沉浸式视频 14 【AI大模型前沿】阿里 Qwen3 震撼开源,模型新王诞生,开启全球大模型新纪元 15 【AI大模型前沿】InternVL:OpenGVLab开源多模态大模型,解锁视觉问答与多语言翻译的全能应用图鉴 16 【AI大模型前沿】Fin-R1:上海财经大学联合财跃星辰推出的金融推理大模型,凭7B参数拿下评测第二,离行业第一仅差3分 17 【AI大模型前沿】Med-R1:基于强化学习的医疗视觉语言模型,突破跨模态医学推理的普适性 18 【AI大模型前沿】Baichuan-M1-14B:百川智能推出专为医疗优化的开源大语言模型 19 【AI大模型前沿】一键生成宫崎骏动画风,EasyControl Ghibli 让照片秒变吉卜力艺术品 20 【AI大模型前沿】TxGemma:谷歌推出的高效药物研发大模型,临床试验预测准确率超90% 21 【AI大模型前沿】F5R-TTS:腾讯推出TTS领域的新王者,又快又准又自然,零样本语音克隆新高度 22 【AI大模型前沿】MiniMind-V:低成本打造超小多模态视觉语言模型(仅需1.3元人民币和1小时) 23 【AI大模型前沿】MoCha:端到端对话角色视频生成模型、电影级对话角色合成黑科技、重新定义动画创作 24 【AI大模型前沿】HuatuoGPT-o1-7B:中英文双语医学推理,打破语言障碍的AI大模型 25 【AI大模型前沿】MedReason:大规模医学推理数据集、借用知识图谱将大模型打造成“医术”专家 26 【AI大模型前沿】SkyReels-V2:昆仑万维开源的无限时长电影生成模型,开启视频生成新纪元 27 【AI大模型前沿】Dia:Nari Labs开源16亿参数TTS模型,只需文本输入,生成媲美真人对话的语音 28 【AI大模型前沿】阿里巴巴开源LHM:单图生成可动画3D人体模型,开启3D建模新纪元 29 【AI大模型前沿】TinyLLaVA-Video-R1:北航开源视频推理模型、小尺寸大智慧、参数少一半,性能翻一番 30 【AI大模型前沿】TTRL:测试时强化学习,开启无标签数据推理新篇章 31 【AI大模型前沿】Aero-1-Audio:Qwen2.5架构加持,轻量级音频模型天花板、吊打Whisper 32 【AI大模型前沿】DianJin-R1:阿里云通义点金联合苏大推出的金融推理增强大模型 33 【AI大模型前沿】VITA-Audio:腾讯开源的高效语音交互多模态大语言模型 34 【AI大模型前沿】Multiverse:全球首个AI多人游戏世界模型,低成本高效率新突破 35 【AI大模型前沿】Seed1.5-VL:多模态理解的效率革新者,以小博大,性能惊艳 36 【AI大模型前沿】ViLAMP:蚂蚁集团和人民大学联手打造的长视频理解利器,单卡处理3小时视频 37 【AI大模型前沿】Muyan-TTS:开源零样本语音合成模型、0.33秒极速生成播客级语音、小白也能玩转AI配音 38 【AI大模型前沿】Dolphin:字节跳动开源文档解析大模型,轻量级、高效、多格式,开启文档处理新时代 39 【AI大模型前沿】ChatTS:字节跳动联合清华大学开源、多模态时序大模型助力时序数据对话与推理 40 【AI大模型前沿】Index-AniSora:B站开源的动漫视频生成模型,助力高效创作 41 【AI大模型前沿】RelightVid:上海 AI Lab联合复旦等高校推出的视频重照明模型 42 【AI大模型前沿】BAGEL:字节跳动开源、多模态大模型的创新突破与实践指南 43 【AI大模型前沿】Matrix-Game:昆仑万维开源大模型,一键生成你的专属虚拟世界 44 【AI大模型前沿】Pixel Reasoner:滑铁卢联合港科大等高校推出的视觉语言模型,助力视觉推理新突破 45 【AI大模型前沿】CoGenAV:多模态语音表征新范式、通义联合深技大打造、噪声环境WER降低70%+ 46 【AI大模型前沿】Ming-Lite-Omni:蚂蚁集团开源的统一多模态大模型的创新实践 47 【AI大模型前沿】DeepEyes:小红书与西安交大联合打造的多模态深度思考模型 48 【AI大模型前沿】OmniAudio:阿里通义实验室的空间音频生成模型,开启沉浸式体验新时代 49 【AI大模型前沿】MiniCPM 4.0:面壁智能开源的极致高效端侧大模型(小版本、低消耗、220倍极致提速) 50 【AI大模型前沿】SmolVLA:Hugging Face开源的轻量级视觉-语言-行动机器人模型 51 【AI大模型前沿】Time-R1:伊利诺伊大学香槟分校开源的时间推理语言模型、实现过去→未来全链路推演 52 【AI大模型前沿】MonkeyOCR:基于结构-识别-关系三元组范式的文档解析模型 53 【AI大模型前沿】GLM-4.5:智谱打造的开源SOTA模型,推理、代码与智能体能力融合先锋

目录

  • 系列篇章💥
  • 前言
  • 一、项目概述
  • 二、技术特点
    • (一)多能力融合
    • (二)混合专家(MoE)架构
    • (三)混合推理模式
    • (四)高效的训练流程
    • (五)参数效率优化
  • 三、性能优势
    • (一)综合性能卓越
    • (二)更高的参数效率
    • (三)低成本、高速度
  • 四、应用场景
    • (一)全栈开发任务
    • (二)代码生成与编程辅助
    • (三)内容生成
    • (四)学术研究
  • 五、快速使用
    • (一)体验平台
    • (二)API 调用
    • (三)本地部署
  • 六、结语
  • 七、项目地址

前言

在人工智能领域,大语言模型(LLM)的发展日新月异,不断推动着技术的边界。智谱推出的 GLM-4.5 模型,作为开源领域的新星,凭借其在推理、代码生成和智能体能力上的卓越表现,为技术探索者和开发者带来了全新的可能性。本文将深入探讨 GLM-4.5 的技术特点、性能优势、应用场景以及快速使用方法,旨在为读者提供一个全面且实用的参考。
【AI大模型前沿】GLM-4.5:智谱打造的开源SOTA模型,推理、代码与智能体能力融合先锋

一、项目概述

GLM-4.5 是智谱推出的新一代旗舰模型,专为智能体应用打造,是首款原生融合推理、代码和智能体能力的开源 SOTA(State-of-the-Art)模型。它采用混合专家(MoE)架构,有两个版本:GLM-4.5(3550 亿参数,320 亿激活)和 GLM-4.5-Air(1060 亿参数,120 亿激活)。该模型在多个评测基准中表现卓越,综合性能达到开源模型的顶尖水平,尤其在代码智能体场景中表现优异。它支持混合推理模式,提供“思考模式”和“非思考模式”,兼顾复杂任务和即时响应需求,为智能体应用提供了强大的支持。

二、技术特点

(一)多能力融合

GLM-4.5 首次在一个模型中实现了推理、代码生成和智能体能力的原生融合。这种融合使得模型能够满足复杂智能体应用的需求,例如在智能体任务中处理网页浏览、工具调用等多模态交互场景。这种多能力的集成不仅提高了模型的通用性,还为开发者提供了更灵活的应用开发选项。

(二)混合专家(MoE)架构

GLM-4.5 采用了混合专家(Mixture of Experts, MoE)架构,这是一种高效的模型扩展方法。MoE 架构通过将模型参数划分为多个专家模块(Experts),在每个前向传播过程中动态选择部分专家进行激活,实现参数的稀疏激活。这种架构在保持模型强大表达能力的同时,显著降低了计算成本和内存占用。具体来说,GLM-4.5 的总参数量为 3550 亿,激活参数为 320 亿;而 GLM-4.5-Air 的总参数量为 1060 亿,激活参数为 120 亿。

(三)混合推理模式

GLM-4.5 提供两种推理模式:“思考模式”和“非思考模式”。思考模式适用于复杂推理和工具使用场景,模型会进行更深入的思考和推理,以生成更准确的结果;非思考模式则适用于即时响应场景,模型会快速生成结果,满足低延迟的需求。这种灵活的推理模式设计使得 GLM-4.5 能够在不同的应用场景中发挥最佳性能。

(四)高效的训练流程

GLM-4.5 的训练流程包括三个阶段:通用数据预训练、针对性训练和强化学习优化。在通用数据预训练阶段,模型在 15 万亿 token 的通用数据上进行预训练,以学习语言和知识的基础表示;在针对性训练阶段,模型在代码、推理、智能体等地方的 8 万亿 token 数据上进行针对性训练,以增强模型在特定任务上的表现;最后通过强化学习进一步优化模型的推理、代码生成和智能体能力,以提升模型在实际应用中的表现。

(五)参数效率优化

尽管 GLM-4.5 的参数量仅为 DeepSeek-R1 的 1/2 和 Kimi-K2 的 1/3,但在多项标准基准测试中表现更为出色。例如,在 100B 总参数 – 10B 激活参数规模的模型系列中,GLM-4.5 在 Artificial Analysis 基准测试中的推理性能媲美甚至超越了其他国际顶级模型。这种参数效率的提升使得 GLM-4.5 在性能和成本效益之间取得了良好的平衡。

三、性能优势

(一)综合性能卓越

在 12 个行业标准评测基准中,GLM-4.5 取得了全球模型第三、国产模型第一、开源模型第一的成绩。这些评测基准涵盖了推理、代码生成、智能体等多个领域,充分证明了 GLM-4.5 的综合性能达到了开源模型的顶尖水平。
【AI大模型前沿】GLM-4.5:智谱打造的开源SOTA模型,推理、代码与智能体能力融合先锋

(二)更高的参数效率

GLM-4.5 在参数效率上实现了显著提升。在衡量模型代码能力的 SWE-bench Verified 榜单上,GLM-4.5 系列位于性能/参数比帕累托前沿,这表明在相同规模下,GLM-4.5 系列实现了最佳性能。这种高效的参数利用方式使得 GLM-4.5 在保持强大性能的同时,降低了模型的计算资源需求。
【AI大模型前沿】GLM-4.5:智谱打造的开源SOTA模型,推理、代码与智能体能力融合先锋

(三)低成本、高速度

GLM-4.5 系列在成本和效率上实现了突破。API 调用价格低至输入 0.8 元/百万 tokens,输出 2 元/百万 tokens,生成速度最高可达 100 tokens/秒。这种低成本、高速度的特性使得 GLM-4.5 非常适合实际部署,能够满足低延迟、高并发的需求,兼顾成本效益与交互体验。
【AI大模型前沿】GLM-4.5:智谱打造的开源SOTA模型,推理、代码与智能体能力融合先锋

四、应用场景

(一)全栈开发任务

GLM-4.5 能胜任复杂的全栈开发任务,支持编写较为复杂的应用、游戏、交互网页等。它可以帮助开发者快速生成代码框架、修复代码错误、优化代码结构等,极大地提高了开发效率。

(二)代码生成与编程辅助

GLM-4.5 在代码生成方面表现出色,能生成高质量的代码片段,支持多种编程语言。它可以作为编程辅助工具,提供代码补全、代码生成建议、代码注释等功能,帮助开发者更高效地完成编程任务。

(三)内容生成

GLM-4.5 可以生成各种类型的内容,如文章、新闻报道、创意文案等,适用于内容创作、文案撰写等场景。它能够根据用户的需求生成高质量的文本内容,为内容创作者提供了强大的支持。

(四)学术研究

GLM-4.5 可以用于学术研究,帮助研究人员探索自然语言处理、人工智能等地方的前沿问题。其强大的推理能力和多模态处理能力为学术研究提供了丰富的实验素材和研究方向。

五、快速使用

(一)体验平台

用户可以通过以下体验平台直接使用 GLM-4.5 的功能:

  • 智谱清言 (chatglm.cn):可以直接访问智谱清言平台,免费体验 GLM-4.5 的满血版功能。用户可以进行对话生成、代码生成、推理任务等多种操作,感受模型的强大能力。
  • Z.ai:用户也可以通过 Z.ai 平台体验 GLM-4.5 的功能。

【AI大模型前沿】GLM-4.5:智谱打造的开源SOTA模型,推理、代码与智能体能力融合先锋

(二)API 调用

智谱 AI 提供了 API 接口,用户可以通过 BigModel 平台进行 API 调用。API 接口支持多种功能,包括文本生成、代码生成、推理任务等。API 调用价格低至输入 0.8 元/百万 tokens,输出 2 元/百万 tokens,生成速度最高可达 100 tokens/秒。

(三)本地部署

用户还可以通过以下步骤在本地部署 GLM-4.5 模型:

  1. 安装依赖

根据 requirements.txt 安装所需的 Python 包:

pip install -r requirements.txt
  1. 使用 transformers 进行推理

参考 trans_infer_cli.py 代码,使用 transformers 库进行模型推理。

  1. 使用 vLLM 进行推理

使用 vLLM 进行推理时,可以使用以下命令启动服务:

vllm serve zai-org/GLM-4.5-Air \\ --tensor-parallel-size 8 \\ --tool-call-parser glm45 \\ --reasoning-parser glm45 \\ --enable-auto-tool-choice \\ --served-model-name glm-4.5-air

如果使用 8x H100 GPUs 运行 GLM-4.5 模型时内存不足,可以添加 --cpu-offload-gb 16 参数。

  1. 使用 SGLang 进行推理

使用 SGLang 进行推理时,可以使用以下命令启动服务:

  • BF16 模式
python3 -m sglang.launch_server \\ --model-path zai-org/GLM-4.5-Air \\ --tp-size 8 \\ --tool-call-parser glm45 \\ --reasoning-parser glm45 \\ --speculative-algorithm EAGLE \\ --speculative-num-steps 3 \\ --speculative-eagle-topk 1 \\ --speculative-num-draft-tokens 4 \\ --mem-fraction-static 0.7 \\ --served-model-name glm-4.5-air \\ --host 0.0.0.0 \\ --port 8000
  • FP8 模式
python3 -m sglang.launch_server \\ --model-path zai-org/GLM-4.5-Air-FP8 \\ --tp-size 4 \\ --tool-call-parser glm45 \\ --reasoning-parser glm45 \\ --speculative-algorithm EAGLE \\ --speculative-num-steps 3 \\ --speculative-eagle-topk 1 \\ --speculative-num-draft-tokens 4 \\ --mem-fraction-static 0.7 \\ --disable-shared-experts-fusion \\ --served-model-name glm-4.5-air-fp8 \\ --host 0.0.0.0 \\ --port 8000

六、结语

GLM-4.5 作为智谱推出的开源 SOTA 模型,凭借其多能力融合、高效的 MoE 架构、灵活的推理模式、卓越的性能以及广泛的应用场景,为人工智能领域带来了新的突破。无论是开发者、研究人员还是企业用户,都可以通过 GLM-4.5 的强大能力实现更高效、更智能的应用开发和研究探索。希望本文的介绍能够帮助读者更好地了解 GLM-4.5,并在实际工作中发挥其价值。

七、项目地址

  • GitHub 仓库:https://github.com/zai-org/GLM-4.5
  • HuggingFace 仓库:https://huggingface.co/collections/zai-org/glm-45-687c621d34bda8c9e4bf503b
  • ModelScope 仓库:https://modelscope.cn/collections/GLM-45-b8693e2a08984f
  • 在线体验:https://chat.z.ai/

【AI大模型前沿】GLM-4.5:智谱打造的开源SOTA模型,推理、代码与智能体能力融合先锋

🎯🔖更多专栏系列文章:AI大模型提示工程完全指南AI大模型探索之路(零基础入门)AI大模型预训练微调进阶AI大模型开源精选实践AI大模型RAG应用探索实践🔥🔥🔥 其他专栏可以查看博客主页📑

😎 作者介绍:资深程序老猿,从业10年+、互联网系统架构师,目前专注于AIGC的探索(CSDN博客之星|AIGC领域优质创作者)
📖专属社群:欢迎关注【小兵的AI视界】公众号或扫描下方👇二维码,回复‘入群’ 即刻上车,获取邀请链接。
💘领取三大专属福利:1️⃣免费赠送AI+编程📚500本,2️⃣AI技术教程副业资料1套,3️⃣DeepSeek资料教程1套🔥(限前500人)
如果文章内容对您有所触动,别忘了点赞、⭐关注,收藏!加入我们,一起携手同行AI的探索之旅,开启智能时代的大门!