
通过 1 级更新、ROSI 机制和实验结果实现的 LLM 安全放大!
三个要点
✔️ ROSI 是一种轻量级 1 级更新方法,可提高 LLM 安全性
✔️ 它可以提高有害指令拒绝率,同时保持正常任务性能
✔️ 它可以重新应用于未删节模型,并对最后一英里安全有效
Turning the Spell Around: Lightweight Alignment Amplification via Rank-One Safety Injection
written by Harethah Abu Shairah, Hasan Abed Al Kader Hammoud, George Turkiyyah, Bernard Ghanem
(Submitted on 28 Aug 2025)
Comments: Under Review
Subjects: Computation and Language (cs.CL); Artificial Intelligence (cs.AI); Machine Learning (cs.LG)
本文所使用的图片要么来自论文、介绍性幻灯片,要么是参考这些图片制作的。
摘要
本文提出了一种新方法--Rank-One Safety Injection (ROSI),以提高 LLM 的安全性。
近年来,LLM 已被广泛应用,但防止生成危险内容的 "安全对齐 "已成为一项挑战。
然而,据报道,这种机制很容易被越狱攻击(越狱)攻破。
以往的研究表明,安全机制可以通过抹除一个被称为 "拒绝方向 "的一维表示空间而失效。
本研究采用了相反的思路,开发了一种轻量级、可解释的方法,通过增强 "拒绝方向 "来提高安全性。
ROSI 只需对模型的权重矩阵进行秩 1 更新,无需重新训练或大量调整。
实验证实,ROSI 提高了对有害请求的拒绝率,同时几乎不影响正常任务的性能,并表明它可以重新应用于故意去除安全性的模型。
建议的方法
ROSI 是一种简单的机制,它利用 LLM 内部的线性表示来提取与安全相关的方向,并将其纳入模型的权重中。
首先,对模型在响应无害指令和有害指令时的激活情况进行比较,然后根据差异得出 "安全方向向量"。
该向量被定义为无害和有害响应集群之间的中心差,代表了模型拒绝的一维特征。
根据该方向向量,秩 1 修正被添加到写入残差流的输出矩阵中。
具体来说,更新的目的是在矩阵中添加一个安全方向,使模型的输出始终向剔除方向略微倾斜。
这种更新非常轻便,即使大规模应用于所有层,也无需重新训练即可高效运行。
与传统的推理时操作(激活转向)不同,ROSI 可以进行永久性的、可解释的修改,从根本上稳定模型的行为。
实验
作者在多个实验中测试了 ROSI 的有效性。
首先,他们将 ROSI 应用于一组安全对齐模型(如 LLaMA、Qwen、Gemma 和 Yi),并观察到对不利指令的拒绝率显著提高。
原本较弱的模型的拒绝率提高了 13 到 18 个百分点。
此外,它们还显著提高了对越狱攻击(DAN、Harmbench、WildGuardTest 等)的抵抗能力,将攻击成功率降低了一半以下。
另一方面,MMLU 和 HellaSwag 等基准得分基本保持不变,表明正常任务的实用性得以保持。
接下来,ROSI 还被应用于 "未删减模型"(Dolphin 系统),在该模型中,安全被刻意删除,而重新注入安全方向后,拒绝率提高了 30% 以上,安全恢复到了 100%。
此外,几乎没有观察到性能下降,这证明了其作为后处理 "最后一英里安全方法 "的有效性。
与本文相关的类别