LIMA模型——大模型对齐的新方法

人工智能咨询培训老师叶梓 转载标明出处

大模型通常在两个阶段进行训练:首先是从原始文本中进行无监督预训练,以学习通用表示;其次是通过大规模的指令微调和强化学习,以更好地适应最终任务和用户偏好。来自Meta AI、卡内基梅隆大学和特拉维夫大学研究人员提出了,通过LIMA模型,对这两种训练阶段的重要性进行了量化。

LIMA(Less Is More for Alignment)是一个65B参数的LLaMa语言模型,它仅通过1,000个精心策划的提示和响应进行标准监督损失微调,而不使用任何强化学习或人类偏好建模。这项研究的核心观点是,大模型的几乎所有知识都是在预训练阶段学到的,而进行高质量的输出只需要有限的指令调整数据

数据与训练

研究者们提出了“表面对齐假设”,认为大模型的知识和能力几乎完全在预训练期间获得,而对齐则是教会模型在与用户互动时使用哪种格式的子分布。基于这一假设,研究团队收集了1,000个提示和响应的数据集,其中输出(响应)风格一致,但输入(提示)则多样化,旨在模拟一个乐于助人的AI助手的风格。

研究者们从三个社区问答网站收集数据:Stack Exchange、wikiHow和Pushshift Reddit数据集。Stack Exchange包含179个在线社区,每个社区专注于特定主题,其中最受欢迎的是编程(Stack Overflow)。研究者们在采样时应用了质量和多样性控制,从每个分类中抽取200个问题和答案,并对答案进行了自动过滤,以符合有用AI助手的风格。例如,过滤掉那些太短或太长、使用第一人称或引用其他答案的回答。同时,从wikiHow抽取了200篇文章,使用标题作为提示,文章正文作为响应。对于Reddit数据集,研究者们手动选择了r/AskReddit和r/WritingPrompts子集中的示例,因为Reddit上高赞回答往往更倾向于娱乐性内容。

为了进一步多样化数据,研究者们还收集了来自自身(论文作者)的提示。两个作者组分别创建了250个提示,这些提示受到作者自身兴趣或朋友的启发。在200个训练提示中补充了高质量的答案,这些答案由作者自己编写,以保持一致的语气。另外还包括了13个带有毒性或恶意的培训提示。

表格1 展示了不同数据源的概览,并提供了一些统计数据。表格详细列出了训练提示(输入)和响应(输出)的来源,以及测试提示的分布情况。通过这些精心策划的数据,旨在验证即使是数量有限的训练示例,只要质量足够高,也能够有效地对大模型进行对齐

训练过程始于LLaMa 65B模型,并使用1,000个示例的对齐训练集进行微调。为了区分每个说话者(用户和助手),在每次发言的末尾引入了一个特殊的回合结束标记(EOT)。微调过程中使用了标准的超参数设置,包括15个训练周期、AdamW优化器以及残差连接上的dropout。发现困惑度(perplexity)与生成质量并不相关,因此使用50个示例的开发集手动选择在第5到第10周期之间的检查点。

想要掌握如何将大模型的力量发挥到极致吗?叶老师带您深入了解 Llama Factory —— 一款革命性的大模型微调工具。9月22日晚,实战专家1小时讲解让您轻松上手,学习如何使用 Llama Factory 微调模型。

加下方微信或评论留言,即可参加线上直播分享,叶老师亲自指导,互动沟通,全面掌握Llama Factory。关注享粉丝福利,限时免费录播讲解。

LLaMA Factory 支持多种预训练模型和微调算法。它提供灵活的运算精度和优化算法选择,以及丰富的实验监控工具。开源特性和社区支持使其易于使用,适合各类用户快速提升模型性能。

人类评估与对齐效果分析

在实验设置方面,为了评估LIMA与其他模型的性能,针对每个测试提示生成单一响应,并由众包工人对LIMA与其他基线模型的输出进行比较和偏好选择。此外,还利用GPT-4重复了这一评估过程,以确保评估的一致性。

在生成响应时,采用了核心采样技术,并施加了重复惩罚,同时限制了最大令牌长度。在评估方法上,向评估者展示了每个提示的两个可能响应,并要求他们判断哪个响应更佳或两者是否相当。

图1和图2分别展示了人类和GPT-4的偏好评估结果。尽管Alpaca 65B的训练数据量远超LIMA,但其输出质量却不及LIMA。DaVinci003虽然采用了RLHF训练,但与LIMA相比,只在较小程度上表现更优。Bard在42%的情况下优于LIMA,但LIMA也有58%的情况至少与Bard持平。尽管Claude和GPT-4通常优于LIMA,但LIMA在19%的情况下也优于GPT-4。

在分析部分,通过对50个随机示例的深入分析,进一步评估了LIMA的性能。这些示例被分为未达到要求、满足要求和优秀的三个等级。图3显示了对LIMA在50个测试提示上的分析结果,其中50%的回答被评为优秀,并且能够遵循50个分析提示中的44个。未观察到失败案例中的显著趋势。

图4展示了LIMA模型在不同测试提示下的输出示例,包括分布内、分布外和安全性挑战的示例。这些示例展示了LIMA在遵循训练集内相关示例、处理训练集中不存在的类似任务以及拒绝不安全行为的能力。

在多样性测试中,通过比较Stack Exchange和wikiHow的数据,发现更多样化的Stack Exchange数据能显著提升模型性能。图5展示了使用不同来源的2,000个示例训练的7B模型的性能,其中经过质量过滤的Stack Exchange数据训练的模型性能更高。在质量测试中,使用经过质量过滤的Stack Exchange数据训练的模型比未过滤的数据训练的模型表现更佳。图5同样展示了这一结果。

在数量测试中,即使训练数据量增加16倍,性能也未见显著提升,表明对齐的效果不仅仅取决于数据量,而是更依赖于保持高质量响应的同时增加提示的多样性。图6展示了随着训练示例数量指数级增加,模型性能却趋于平稳的现象。

在多轮对话测试中,尽管LIMA仅在1,000个单轮互动上进行了微调,但其在多轮对话中的表现令人惊讶地连贯。为了进一步提升对话能力,增加了30个多轮对话链到训练集中,并进行了新一轮的微调。图7显示了响应质量的分布,添加对话示例显著提高了生成质量,优秀响应的比例显著提升,失败率也有所下降。这一发现进一步证实了预训练期间学到的能力和通过有限监督调用这些能力的可能性。

这些结果表明,预训练的强大功能以及其相对于大规模指令调整和强化学习方法的重要性。

论文链接:https://arxiv.org/pdf/2305.11206


http://www.niftyadmin.cn/n/5665767.html

相关文章

实战分享:我是如何挖到CSDN漏洞的?

文章目录 前言一、过程二、总结《Windows信息安全和网络攻防》——清华大学出版社 前言 CxxN是国内很出名的博客平台,用户量非常大,注册用户据说有1个亿?(官方写的)本次我发现的漏洞详情是可以通过用户的id直接获取用户完整的手机号&#xf…

计算机毕业设计 办公用品管理系统 Java+SpringBoot+Vue 前后端分离 文档报告 代码讲解 安装调试

🍊作者:计算机编程-吉哥 🍊简介:专业从事JavaWeb程序开发,微信小程序开发,定制化项目、 源码、代码讲解、文档撰写、ppt制作。做自己喜欢的事,生活就是快乐的。 🍊心愿:点…

【ARM】中断的处理

ARM的异常向量表 如果发生异常后并没有exception level切换,并且发生异常之 前使用的栈指针是SP_EL0,那么使用第一组异常向量表。如果发生异常后并没有exception level切换,并且发生异常之 前使用的栈指针是SP_EL1/2/3,那么使用第…

新能源汽车 BMS 学习笔记篇——N-MOS P-MOS 的开关原理及选型要点

前言: 在之前的文章,小编有提到继电器和 MOS 都可以用作 BMS(电池管理系统) 中控制电池充放电的开关。相比继电器,MOS 管在开关应用中具有更快的速度、更小的体积、更低的功耗、更高的可靠性、更少的噪声以及更长的耐…

Vue 图片预览功能实现指南

1. 介绍 在现代 web 应用程序中,图片预览功能提升了用户体验,使用户可以在上传图片之前查看图片内容。本文将详细介绍如何在 Vue.js 应用中实现图片预览功能,包括基本实现、进阶功能、与 Element UI 的集成、常见优化技巧以及与其他库的结合…

解决Gson将长数字( json字符串)转换为科学记数法格式

Gson(又称Google Gson)是Google公司发布的一个开放源代码的Java库,主要用途为序列化Java对象为JSON字符串,或反序列化JSON字符串成Java对象。 依赖 Gradle: dependencies {implementation com.google.code.gson:gson:2.11.0 }…

Axure RP 9最新安装程序及汉化包下载(支持Win、Mac版,附下载安装教程)

数月前Axure RP官方已经发布了Axure RP 9的消息,并计划在今年夏天发布beta版本。新版Axure RP 9将是该工具向前迈出的重要一步,其中包括一系列广泛的改进:全面的UI修改,新的设计和文档功能以及前所未有的内部优化。我们已经彻底重…

【深度学习】(2)--PyTorch框架认识

文章目录 PyTorch框架认识1. Tensor张量定义与特性创建方式 2. 下载数据集下载测试展现下载内容 3. 创建DataLoader(数据加载器)4. 选择处理器5. 神经网络模型构建模型 6. 训练数据训练集数据测试集数据 7. 提高模型学习率 总结 PyTorch框架认识 PyTorc…