> 技术文档 > ACL 2025最佳论文!DeepSeek梁文锋NSA论文、北大杨耀东团队摘得!_2025 acl最佳demo

ACL 2025最佳论文!DeepSeek梁文锋NSA论文、北大杨耀东团队摘得!_2025 acl最佳demo

来源公众号图灵学术AI科研

刚刚在奥地利维也纳结束的ACL 2025(国际计算语言学协会年会),绝对是今年自然语言处理(NLP)圈最热闹的盛会!

今年大会创纪录地收到了超过 8000篇 投稿,比去年几乎翻倍,热闹程度可见一斑。最终有近1700篇论文闯进主会场,还有1300多篇入选了Findings环节。

最让人兴奋的是,这次大会上中国作者的表现简直亮瞎眼!在所有论文的第一作者里,超过一半(51.3%)来自中国大陆,美国作者占比只有14%,稳稳占据C位。这意味着中国在NLP研究领域的声音越来越响亮,人才储备杠杠的。

大会颁出的几项最佳论文奖,更是成了华人团队的“高光时刻”。在总共4篇最佳论文 中,有2篇来自中国团队,妥妥的半壁江山。

最抢眼的技术突破:让AI看长文快起来!

由 DeepSeek(创始人梁文锋参与)与北京大学 合作完成的《Native Sparse Attention》论文(简称NSA)摘得最佳论文桂冠,绝对是技术圈刷屏的焦点。

这篇论文到底牛在哪?

简单说,它发明了一种叫 “原生稀疏注意力”(NSA) 的新机制。现在的AI大模型处理超长文本(比如整本书、超长代码)时,算力消耗巨大,速度慢得像蜗牛。

NSA的秘诀在于,它让AI“聪明地偷懒”——只聚焦文本中最关键的部分进行计算,大大减少了无用功。实验证明,这种技术能让长文本处理速度 提升最高11倍。

论文第一作者袁境阳在颁奖现场做了个精彩演讲,核心观点非常直白:未来AI的注意力,注定是“稀疏化”的! 

因为GPU的内存带宽跟不上模型变大的速度,NSA这种高效省力的方法,就是下一代长文本AI模型的基石。这技术被Meta打了4.5分(满分5分),含金量十足。

最烧脑的发现:大模型竟然抗拒被管教?

另一篇获奖的最佳论文来自北京大学杨耀东团队,题目是《Language Models Resist Alignment》。这篇论文揭示了一个让人有点“细思极恐”的现象:

大模型好像有抗改造基因!

我们都知道,训练好的大模型需要经过“对齐”训练(Alignment),让它更听话、更安全。但北大团队发现,模型内部似乎存在一种 “弹性”机制——就像橡皮筋,你把它(通过微调)掰向某个方向(比如更安全),它总有一股力量想弹回最初预训练时的“原始状态”。更麻烦的是,模型越大、预训练越充分,这种“反弹”力量就越强!

这意味着,现在我们对AI的“管教”可能只是表面功夫,模型骨子里还是那个“野孩子”,一有机会就想“原形毕露”。这对AI安全和伦理提出了巨大挑战:让AI真正变乖,可能比想象中难得多!

另外两篇最佳论文也脑洞大开:

  • LLM的“理想病”?(《A Theory of Response Sampling in LLMs》)这篇论文指出,大模型在回答问题时,不光会反映现实情况是什么,还会不自觉地偏向它认为应该是什么的理想状态。这种自带“美颜滤镜”的倾向,可能在自动决策时带来隐藏的偏见。

  • 公平≠无视差异!(《Fairness through Difference Awareness》)斯坦福的研究者挑战了传统观点,认为AI追求“无视差异”的公平反而可能出错。在某些情况下(比如法律对不同性别有不同规定),AI能识别并合理区别对待不同群体,才是更高级的公平。关键在于,AI得懂“什么时候该区别,什么时候不该”。

除了最佳论文,大会还颁发了:

  • 最佳社会影响力奖: 关注了非洲医疗问答数据集(AfriMed-QA)和AI使用中的社会经济差异问题。

  • 最佳资源奖: 表彰了多语言道德推理数据集(UniMoral)、多语言情感数据集(BRIGHTER)和阿拉伯语大模型数据集(Palm)。

  • 最佳Demo奖: 给了能追溯模型输出到训练数据的强大工具OLMoTrace。

  • 时间检验奖: 颁给了20多年前奠定语义角色标注基础的论文,以及10年前由Manning团队提出的、影响深远的注意力机制论文(这是Manning教授连续第三年获此殊荣!)。

  • 终身成就奖: 授予了哥伦比亚大学的Kathy McKeown教授,表彰她在自然语言生成等地方的开创性贡献和服务。

  • 杰出服务奖: 授予了哥伦比亚大学的Julia Hirschberg教授。

中国力量崛起,技术脑洞大开

ACL 2025这场NLP顶级盛宴落下帷幕,最深的印象有两点:

一是中国研究力量的集体爆发,从投稿量到顶尖成果都占据主导;二是研究越来越深入本质、越来越敢挑战难题——无论是让AI处理长文快如闪电(NSA),还是发现大模型骨子里的“叛逆”(抗对齐),或是重新思考何为真正的公平,都预示着NLP领域正朝着更高效、更深刻、更负责任的方向狂奔。

这场在维也纳上演的AI智慧盛宴,着实让人看得过瘾!

获取更多计算机发文资讯关注计算机科研圈/公众号同名