课程介绍:

本课程涵盖大模型微调的核心技能,从技术概览到前沿应用,深入解析LoRA、PEFT等技术,并通过Hugging Face Transformers等工具进行实战微调与量化。还包括GLM、ChatGLM、LangChain及RLHF等热门主题,以及DeepSpeed分布式训练框架和Meta AI的LLaMA模型等内容。

课程截图:

课程目录:

  • 00 开营直播
  • 01 大语言模型微调的前沿技术与应用 .mp4
  • 开营直播:大语言模型微调的前沿技术与应用.pdf
  • 01 第一周
  • 01 ai大模型四阶技术总览 .mp4
  • 02 大语言模型技术发展与演进 .mp4
  • 1-ai大模型四阶技术总览.pdf
  • 20231129评论区记录.xlsx
  • 20231203评论区记录.xlsx
  • 2-大语言模型技术发展与演进.pdf
  • 第一周作业参考答案.pdf
  • 论文.zip
  • 02 第二周
  • 01 大模型微调技术揭秘 .mp4
  • 02 大模型微调技术揭秘-lora .mp4
  • 20231206评论区记录.xlsx
  • 20231210评论区记录.xlsx
  • 3-大模型微调技术揭秘-peft.pdf
  • 4-大模型微调技术揭秘-lora.pdf
  • fine-tuning论文.zip
  • unipelt a unified framework for parameter-efficient language model tuning.pdf
  • 03 第三周
  • 01 大模型开发工具库hugging face transformers .mp4
  • 02 20231220评论区记录.xlsx
  • 02 实战transformers模型微调.mp4
  • 大模型开发工具库 hf transformers.pdf
  • 实战transformers模型微调.pdf
  • 04 第四周
  • 01 20231224评论区记录.xlsx
  • 01 quantization论文.zip
  • 01 实战transformers模型量化.mp4
  • 03 20231227评论区记录.xlsx
  • 03 大模型高效微调工具hf peft.mp4
  • 7-实战transformers模型量化.pdf
  • 8-大模型高效微调工具hf peft.pdf
  • 实战transformers模型量化.pdf
  • 05.第05周
  • 01 20240103评论区记录.xlsx
  • 01 glm论文.zip
  • 01 实战qlora微调chatglm3-6b.mp4
  • 9-实战qlora 微调 chatglm3-6b.pdf
  • 06 第五周
  • 01 glm论文
  • glm论文
  • glm.pdf
  • glm-130b v1.pdf
  • glm-130b v2.pdf
  • 01 20240103评论区记录.xlsx
  • 01 9-实战qlora 微调 chatglm3-6b.pdf
  • 01 实战qlora微调chatglm3-6b.mp4
  • 02 10-快速入门 langchain 大模型应用开发框架.pdf
  • 02 20240107评论区记录.xlsx
  • 02 快速入门 langchain 大模型应用开发框架(上).mp4
  • 03 快速入门 langchain 大模型应用开发框架(下).mp4
  • 07 第六周
  • 01 11-实战基于langchain和chatglm私有化部署聊天机器人.pdf
  • 01 20240110评论区记录.xlsx
  • 01 实战基于langchain和chatglm私有化部署聊天机器人.mp4
  • 02 12-实战私有数据微调chatglm3.pdf
  • 02 20240118评论区记录.xlsx
  • 02 实战私有数据微调chatglm3.mp4
  • 08 第七周
  • 01 rlhf论文
  • rlhf
  • learning to summarize from human feedback.pdf
  • proximal policy optimization algorithms.pdf
  • training language models to follow instructions with human feedback.pdf
  • 02 moes论文
  • moes
  • adaptive-mixtures-of-local-experts.pdf
  • glam efficient scaling of language models with mixture-of-experts.pdf
  • learning factored representations in a deep mixture of experts.pdf
  • mixtral ai.pdf
  • mixture-of-experts with expert choice routing.pdf
  • st-moe designing stable and transferable sparse expert models.pdf
  • switch transformers scaling to trillion parameter models with simple and efficient sparsity.pdf
  • 01 13-chatgpt大模型训练技术rlhf.pdf
  • 01 20240121评论区记录.xlsx
  • 01 chatgpt大模型训练技术rlhf.mp4
  • 02 14-混合专家模型(moes)技术揭秘.pdf
  • 02 20240124评论区记录.xlsx
  • 02 混合专家模型(moes)技术揭秘.mp4
  • 09 第八周
  • 01 zero论文
  • zero
  • zero memory optimizations toward training trillion parameter models.pdf
  • zero-infinity breaking the gpu memory wall for extreme scale deep learning.pdf
  • zero-offload democratizing billion-scale model training.pdf
  • 03 llamal论文
  • llama
  • a survey of large language models.pdf
  • llama 2 open foundation and fine-tuned chat models.pdf
  • llama open and efficient foundation language models.pdf
  • 01 15-大模型分布式训练框架microsoft deepspeed.pdf
  • 01 20240128评论区记录.xlsx
  • 01 大模型分布式训练框架microsoft deepspeed.mp4
  • 03 16-meta ai 大模型家族 llama.pdf
  • 03 20240131评论区记录.xlsx
  • 03 meta ai 大模型家族 llama.mp4
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。