大模型LLM | 一文搞懂大模型的后训练Post-training(SFT 监督微调)
Post-training是大语言模型训练流程中的关键阶段,发生在预训练(Pre-training)之后。如果说预训练让模型学会了语言的基本规律和知识,那么Post-training就是教会模型如何像一个有用的助手一样与人类对话。在预训练阶段,模型通过大量无标注文本学习语言模式,但这样的模型往往无法很好地理解人类的意图,也不知道如何给出有帮助的回应。Post-training通过监督微调(Supe
当我们与ChatGPT对话时,很难想象这个能够流畅回答问题、拒绝不当请求、甚至承认自己不知道某些事情的AI助手,在训练初期其实只是一个"鹦鹉学舌"的语言模型。从预训练模型到真正有用的AI助手,这中间的关键转变就发生在Post-training阶段。
想象一下,预训练后的大语言模型就像一个博学但不懂礼貌的学者——它知识渊博,能够续写任何文本,但它不知道如何与人交流,不知道什么该说什么不该说,更不知道如何承认自己的无知。Post-training的监督微调(SFT)就是要教会这个"学者"如何成为一个合格的助手。

一、Post-training(SFT 监督微调)
1、什么是后训练(Post-Training)?
Post-training是大语言模型训练流程中的关键阶段,发生在预训练(Pre-training)之后。如果说预训练让模型学会了语言的基本规律和知识,那么Post-training就是教会模型如何像一个有用的助手一样与人类对话。
在预训练阶段,模型通过大量无标注文本学习语言模式,但这样的模型往往无法很好地理解人类的意图,也不知道如何给出有帮助的回应。Post-training通过监督微调(Supervised Fine-Tuning, SFT)解决了这个问题。

2、为什么后训练(Post-Training)如此重要?
如果说Pre-training让模型掌握了语言的统计规律和丰富知识,那么Post-training则需要教会模型区分什么时候应该承认"我不知道"(控制幻觉),什么时候应该相信当前对话中的确切信息而非记忆中的模糊印象(优先工作记忆)。这个过程决定了AI助手是否能够从一个善于表达但可能误导用户的"话痨",转变为一个既有能力又值得信赖的智能伙伴。
1、幻觉现象的控制
Pre-training赋予模型强大的语言生成能力,但也带来了"幻觉"问题——模型会生成看似合理但实际错误的信息。这源于预训练时模型只学会了"填补空白"的能力,却没有学会区分"知道"和"不知道"。
Post-training通过人类反馈强化学习(RLHF)和指令微调来教会模型承认不确定性,训练模型在遇到不确定信息时表达"我不知道"。但这形成了一个微妙的平衡:过度的反幻觉训练可能让模型变得过于保守,失去创造力和实用性。
2、区分"模糊回忆"与"工作记忆"
Pre-training赋予模型的是基于统计关联的"模糊回忆"——模型能感知到概念间的关系,但缺乏精确性。
模型处理信息时存在两种不同的模式:
- 模糊回忆:基于训练数据的统计关联,能感知概念关系但缺乏精确性
- 工作记忆:对当前对话上下文的准确处理,可以精确引用刚刚提到的信息
Post-training的关键任务是训练模型优先依赖工作记忆——即当前上下文中的确切信息,而对来自训练数据的模糊印象保持谨慎。这通过专门的上下文利用训练和引用准确性训练来实现。

二、后训练过程
从语言模型到对话助手的蜕变:通过大规模的人类反馈数据,让模型不仅"会说话",更重要的是"会正确地说话"。
首先用标准化的对话协议将人类自然语言转换为模型可理解的token序列,然后使用包含大量人类标注员精心构建的高质量对话样本进行训练——这些样本涵盖基础问答、复杂解释、适当拒绝等各种场景,让模型学会在特定情况下给出有帮助、无害、诚实的回应,最终从单纯的文本生成工具转变为能够理解对话上下文、遵循人类价值观、具备交互能力的智能助手。
1、对话训练(Conversations)
监督微调使用精心构建的对话数据集来训练模型。这些数据集包含了人类与理想助手之间的对话样本,每个样本都展示了在特定情况下模型应该如何回应。
典型的对话训练类型如下:
- 基础问答:"2+2等于多少?“→"2+2=4”
- 解释性问题:"为什么天空是蓝色的?"→详细的科学解释
- 拒绝不当请求:"如何黑进电脑?“→"很抱歉,我不能帮助您进行这种活动”
2. 对话协议与格式(Conversation Protocol/Format)
Post-training中的一个重要环节是对话格式的标准化。通过Tokenizer(如常用的Tiktokenizer),将人类的自然语言对话转换为模型可以理解的token序列。这个过程确保了模型能够准确理解对话的结构,区分人类输入和助手回应。

3. 对话数据集(Conversation Datasets)
高质量的对话数据集是监督微调成功的关键。早期的InstructGPT论文(2022年)就展示了如何通过人类标注员创建对话数据。这些数据集不仅要涵盖各种话题和场景,还要体现出理想助手的特质:有帮助、无害、诚实。人类标注员会根据特定的标注指南创建对话,确保模型学习到正确的回应模式。这个过程需要大量的人工投入,但对于模型的最终性能至关重要。

三、如何系统学习掌握AI大模型?
AI大模型作为人工智能领域的重要技术突破,正成为推动各行各业创新和转型的关键力量。抓住AI大模型的风口,掌握AI大模型的知识和技能将变得越来越重要。
学习AI大模型是一个系统的过程,需要从基础开始,逐步深入到更高级的技术。
这里给大家精心整理了一份
全面的AI大模型学习资源,包括:AI大模型全套学习路线图(从入门到实战)、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等,资料免费分享!

1. 成长路线图&学习规划
要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。
这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。可以说是最科学最系统的学习成长路线。

2. 大模型经典PDF书籍
书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。(书籍含电子版PDF)

3. 大模型视频教程
对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识。

4. 大模型行业报告
行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

5. 大模型项目实战
学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

6. 大模型面试题
面试不仅是技术的较量,更需要充分的准备。
在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以
微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费】

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐



所有评论(0)