这段文字介绍了一位博主将会制作的关于如何使用自定义数据集微调大型语言模型 (LLM) 的视频系列。视频将首先展示如何使用参数高效迁移学习和低秩自适应(Laura)技术来微调 Llama 2 模型。

视频将涵盖以下内容:

  • 实际操作: 提供代码模板,演示数据预处理、量化等步骤。
  • 理论基础: 在后续视频中,将解释参数高效迁移学习和低秩自适应的理论概念,包括 Clara 技术。
  • 联系理论与实践: 将理论知识与实际操作联系起来,帮助观众理解微调过程。
  • 开源模型: 强调学习如何微调开源模型的重要性,例如 Llama 2、Mistral、Falcon 等。
  • 行业需求: 指出公司需要掌握如何使用自定义数据集微调模型的能力。

视频将使用 Hugging Face Transformers 等库,并提供一个整体概述,以便观众在后续学习理论知识时更容易理解。

总之,该视频系列旨在帮助观众学习如何使用自定义数据集微调大型语言模型,并提供理论和实践方面的指导。

在本视频中,我们将讨论如何使用 LoRA(大型语言模型的低秩自适应)通过参数高效的迁移学习,使用自定义数据集微调 LLAMA 2 模型。代码:https://drive.google.com/file/d/1Bd7c5rioBOmtJbDEax83vAHEPru-r06l/view?usp=sharing

Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐