欧洲杯足彩官网-星空体育网站入口官网手机版 > > 正文

用rlhf 2%的算力让llm停止有害输出,字节提出llm遗忘学习|样本|梯度|字符串|llm|rlhf-欧洲杯足彩官网

分享至



机器之心专栏

机器之心编辑部

如何让 llm “忘记” 学到的有害内容?

随着大型语言模型(llm)的发展,从业者面临更多挑战。如何避免 llm 产生有害回复?如何快速删除训练数据中的星空体育网站入口官网手机版的版权保护内容?如何减少 llm 幻觉(hallucinations,即错误事实)? 如何在数据政策更改后快速迭代 llm?这些问题在人工智能法律和道德的合规要求日益成熟的大趋势下,对于 llm 的安全可信部署至关重要。

目前业界的主流星空体育网站入口官网手机版的解决方案为 llm 对齐 (alignment),即通过建立对比数据(正样本和负样本)用强化学习的方式来对 llm 进行微调 (finetuning),也就是 rlhf (reinforcement learning from human feedback)[1] ,从而保证 llm 输出符合人类预期和价值观。但对齐过程往往受到 (1) 数据收集;(2) 计算资源的限制。

字节跳动提出让 llm 进行遗忘学习的方法来进行对齐。本文研究如何在 llm 上进行 “遗忘” 操作,即忘记有害行为或遗忘学习(machine unlearning),作者展示了遗忘学习在三种 llm 对齐场景上取得的明显效果:(1) 删除有害输出;(2) 移除侵权保护内容;(3) 消除大语言 llm 幻觉。

遗忘学习有三个优势:(1) 只需负样本(有害样本),负样本比 rlhf 所需的正样本(高质量的人工手写输出)的收集简单的多(比如红队测试或用户报告);(2) 计算成本低;(3) 如果知道哪些训练样本导致 llm 有害行为时,遗忘学习尤为有效。

作者证明,如果从业者只有较少的资源,因此优先考虑的是停止产生有害输出,而不是试图产生过于理想化的输出,遗忘学习尤为便利。尽管只有负样本,研究表明,和 rlhf 相比,只使用 2% 的计算时间下,遗忘学习仍可以获得更好的对齐性能。



  • 论文地址:https://arxiv.org/abs/2310.10683
  • 代码地址:https://github.com/kevinyaobytedance/llm_unlearn

使用场景

本方法可以在资源有限的情况下,最大程度发挥优势。当没预算请人员写优质样本,或计算资源不足时,应当优先停止 llm 产生有害输出,而不是试图让其产生有益输出。

有害输出造成的损害远不是有益输出能弥补的。如果一个用户问 llm100 个问题,他得到一个有害答案,就会失去信任,不管后来 llm 能给多少有益答案。有害问题的预期输出可以是空格、特殊字符、无意义字符串等,总之,一定要是无害文本。

文中展示了 llm 遗忘学习的三个成功案例:(1) 停止生成有害回复(图一);这与 rlhf 情境相似,区别是本方法目标是生成无害回复,而不是有益回复。当只有负样本时,这是能期望的最好结果。(2) llm 使用侵权数据训练后,在作者要求下,成功删除数据,且考虑到成本因素不能重训 llm;(3) llm 成功忘记 “幻觉”。



图一

方法

在微调 step t,llm 更新如下:



第一项损失为梯度上升(graident descent),目的为忘记有害样本:





为有害提示 (prompt),



为对应的有害回复。整体损失反向提升了有害样本的损失,即让 llm “遗忘” 有害样本。

第二项损失为随机误配,强制 llm 在有害提示上预测无关回复。类似于分类里的标签平滑(label smoothing [2])。目的是 llm 更好的忘记有害提示上的有害输出。同时实验发现能增加 llm 正常输出的性能。



第三项损失为在正常任务上维持性能:



同 rlhf 类似,在预训练 llm 上计算 kl 散度能更好保持 llm 性能。

此外,所有的梯度上升和下降都只在输出(y)部分做,而不是像 rlhf 在提示 - 输出对(x, y)上。

应用场景:忘却有害内容等

本文用 pku-saferlhf 数据作为遗忘数据,truthfulqa 作为正常数据,图二显示了遗忘学习后 llm 在忘却的有害提示上输出的有害率。文中使用的方法为 ga(梯度上升和 ga mismatch:梯度上升 随机误配)。遗忘学习后的有害率接近于零。



图二

图三显示了未见过的有害提示(未被忘却过)上的输出。即使在没有忘却过的有害提示上,llm 的有害率也接近于零,证明 llm 忘记的不仅仅是具体见过的样本,而是泛化到了包含有害这个概念的内容。



图三

同时 llm 在正常样本上的性能和忘却前保持类似。

表一展示了生成的样本。可以看到在有害提示下,llm 生成的样本都是无意义字符串,即无害输出。



表一

该方法在其他场景(如忘却侵权内容和忘却幻觉)的应用原文中有详细描述。

rlhf 比较

表二显示了该方法和 rlhf 的比较,这里 rlhf 已经用了正例,而遗忘学习的方法只有负例,所以比较一开始本方法就占劣势。但即便如此,遗忘学习也能取得和 rlhf 相似的对齐性能。



表二

图四显示了计算时间的比较,本方法只需 rlhf 2% 的计算时间。



图四

尽管只有负样本,遗忘学习的方法仍能达到和 rlhf 相似的无害率,而且只使用 2% 的算力。因此如果目标是停止输出有害输出,遗忘学习比 rlhf 更高效。

结论

该研究首次探索了 llm 上的遗忘学习。本文的结果表明,遗忘学习是一种有希望的对齐方法,特别是当从业者没有足够的资源时。论文展示了三种情境:遗忘学习可以成功删除有害回复、删除侵权内容和消除错觉。研究表明,尽管只有负样本,遗忘学习仍可在只用 rlhf 计算时间的 2% 的情况下,获得和 rlhf 相近的对齐效果。

参考文献

[1] ouyang, long, et al. "training language models to follow instructions with human feedback." advances in neural information processing systems 35 (2022): 27730-27744.

[2] müller, rafael, simon kornblith, and geoffrey e. hinton. "when does label smoothing help?" advances in neural information processing systems 32 (2019).

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

notice: the content above (including the pictures and videos if any) is uploaded and posted by a user of netease hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
拾叁生意经
2023-11-29 17:50:04
据说说娱乐
2023-12-04 13:41:41
直播吧
2023-12-17 12:24:21
胖福的小木屋
2023-12-15 01:14:41
侦姐有料
2023-12-16 09:24:08
科学佣人
2023-12-13 13:12:32
我是娱有理
2023-12-17 06:45:58
直播吧
2023-12-16 19:15:16
厝边人侃体育
2023-12-17 12:25:15

俄罗斯放大招:欧洲冻成狗,气价飞涨!

踏雪理财
2023-12-16 09:17:07
千百艺
2023-12-16 11:41:27
缘木不求娱
2023-12-16 23:06:00
it之家
2023-12-17 10:33:19

每天早上吃一个水煮鸡蛋,长期下来,身体会怎么样?

养生时间
2023-12-15 07:15:28
篮球教学论坛
2023-12-16 12:03:10
每日经济新闻
2023-12-16 21:23:14
奥拜尔
2023-12-16 19:54:07
小七侃娱
2023-12-15 14:39:06

孙东旭被免职,诸多前员工爆料,搞办公室恋情,和他工作就是噩梦

辣条小剧场
2023-12-16 14:21:09
鹰眼defence
2023-12-16 18:28:49
2023-12-17 12:34:44
机器之心pro
专业的人工智能媒体
8521文章数 141735关注度
往期回顾 全部

李斌:建议各大车企ceo亲自测试自家电动车真实续航

董宇辉:薪酬待遇有很大提升 回西安是正常休假

董宇辉:薪酬待遇有很大提升 回西安是正常休假

被29个队判了"死刑"的沙丞相,复活了

俞敏洪董宇辉合体 打感情牌回应风波

罗永浩炮轰东方甄选:最压榨年轻人的公司

宝骏云朵明年3月量产 增加记忆领航功能

态度原创

我和我的家乡丨鱼见徽廉,是徽州人不变的初心

山东一学生跳楼身亡,家属却被学校报警拘留,网友:“滕州真冷”

苹果提醒消费者 不要使用未经认证的apple watch充电器

110-140平!住总「山澜樾府」今天开盘

网站地图