> 技术文档 > 一文带你盘点2024 年 CCS 顶会论文:大模型安全解析_zkllm: zero knowledge proofs for large language mo

一文带你盘点2024 年 CCS 顶会论文:大模型安全解析_zkllm: zero knowledge proofs for large language mo


引言

近年来,大型语言模型(LLMs)在人工智能领域掀起了革命性的浪潮,但随之而来的安全风险也层出不穷。2024 年,在顶级安全会议 ACM CCS 上发表的五篇论文,从零知识证明、二进制符号恢复、提示注入攻击、代码生成安全优化到 RCE 漏洞检测,为大模型安全问题提供了深度解析和技术方案。本文将逐一解析这五篇论文的核心内容,并只列出各篇论文的作者,让你全面了解大模型安全领域的现状和挑战。

内容

🔐 1. zkLLM: Zero Knowledge Proofs for Large Language Models

核心内容:

  • 问题背景: 随着大模型在全球范围内的广泛应用,如何在不泄露模型参数的前提下验证模型输出的正确性成为亟待解决的关键问题。

  • 技术创新: zkLLM 提出了首个针对大模型的零知识证明方法,通过设计专门的 tlookup 与 zkAttn 技术,在不暴露模型内部信息的情况下,验证整个推理过程的正确性。

  • 亮点: 在大规模模型上,仅用不到 15 分钟即可生成不到 200KB 的证明文件,为大模型的隐私保护和合规应用提供了有力支持。

🛠️ 2. ReSym: Harnessing LLMs to Recover Variable and Data Structure Symbols from Stripped Binaries

核心内容:

  • 问题背景: 在二进制反汇编与逆向工程中,变量名和数据结构信息常常被剥离,这给代码审计和漏洞挖掘带来了巨大挑战。

  • 技术创新: ReSym 结合大语言模型与程序分析技术,提出了一种混合式方法,既能恢复局部变量的符号信息,也能重建用户定义的数据结构。

  • 亮点: 实验结果表明,ReSym 在还原变量信息和数据结构方面取得了显著提升,突破了传统方法的局限。

🚀 3. Optimizat