课程介绍:
本课程涵盖大模型微调的核心技能,从技术概览到前沿应用,深入解析LoRA、PEFT等技术,并通过Hugging Face Transformers等工具进行实战微调与量化。还包括GLM、ChatGLM、LangChain及RLHF等热门主题,以及DeepSpeed分布式训练框架和Meta AI的LLaMA模型等内容。
课程截图:
课程目录:
- 00 开营直播
- 01 大语言模型微调的前沿技术与应用 .mp4
- 开营直播:大语言模型微调的前沿技术与应用.pdf
- 01 第一周
- 01 ai大模型四阶技术总览 .mp4
- 02 大语言模型技术发展与演进 .mp4
- 1-ai大模型四阶技术总览.pdf
- 20231129评论区记录.xlsx
- 20231203评论区记录.xlsx
- 2-大语言模型技术发展与演进.pdf
- 第一周作业参考答案.pdf
- 论文.zip
- 02 第二周
- 01 大模型微调技术揭秘 .mp4
- 02 大模型微调技术揭秘-lora .mp4
- 20231206评论区记录.xlsx
- 20231210评论区记录.xlsx
- 3-大模型微调技术揭秘-peft.pdf
- 4-大模型微调技术揭秘-lora.pdf
- fine-tuning论文.zip
- unipelt a unified framework for parameter-efficient language model tuning.pdf
- 03 第三周
- 01 大模型开发工具库hugging face transformers .mp4
- 02 20231220评论区记录.xlsx
- 02 实战transformers模型微调.mp4
- 大模型开发工具库 hf transformers.pdf
- 实战transformers模型微调.pdf
- 04 第四周
- 01 20231224评论区记录.xlsx
- 01 quantization论文.zip
- 01 实战transformers模型量化.mp4
- 03 20231227评论区记录.xlsx
- 03 大模型高效微调工具hf peft.mp4
- 7-实战transformers模型量化.pdf
- 8-大模型高效微调工具hf peft.pdf
- 实战transformers模型量化.pdf
- 05.第05周
- 01 20240103评论区记录.xlsx
- 01 glm论文.zip
- 01 实战qlora微调chatglm3-6b.mp4
- 9-实战qlora 微调 chatglm3-6b.pdf
- 06 第五周
- 01 glm论文
- glm论文
- glm.pdf
- glm-130b v1.pdf
- glm-130b v2.pdf
- 01 20240103评论区记录.xlsx
- 01 9-实战qlora 微调 chatglm3-6b.pdf
- 01 实战qlora微调chatglm3-6b.mp4
- 02 10-快速入门 langchain 大模型应用开发框架.pdf
- 02 20240107评论区记录.xlsx
- 02 快速入门 langchain 大模型应用开发框架(上).mp4
- 03 快速入门 langchain 大模型应用开发框架(下).mp4
- 07 第六周
- 01 11-实战基于langchain和chatglm私有化部署聊天机器人.pdf
- 01 20240110评论区记录.xlsx
- 01 实战基于langchain和chatglm私有化部署聊天机器人.mp4
- 02 12-实战私有数据微调chatglm3.pdf
- 02 20240118评论区记录.xlsx
- 02 实战私有数据微调chatglm3.mp4
- 08 第七周
- 01 rlhf论文
- rlhf
- learning to summarize from human feedback.pdf
- proximal policy optimization algorithms.pdf
- training language models to follow instructions with human feedback.pdf
- 02 moes论文
- moes
- adaptive-mixtures-of-local-experts.pdf
- glam efficient scaling of language models with mixture-of-experts.pdf
- learning factored representations in a deep mixture of experts.pdf
- mixtral ai.pdf
- mixture-of-experts with expert choice routing.pdf
- st-moe designing stable and transferable sparse expert models.pdf
- switch transformers scaling to trillion parameter models with simple and efficient sparsity.pdf
- 01 13-chatgpt大模型训练技术rlhf.pdf
- 01 20240121评论区记录.xlsx
- 01 chatgpt大模型训练技术rlhf.mp4
- 02 14-混合专家模型(moes)技术揭秘.pdf
- 02 20240124评论区记录.xlsx
- 02 混合专家模型(moes)技术揭秘.mp4
- 09 第八周
- 01 zero论文
- zero
- zero memory optimizations toward training trillion parameter models.pdf
- zero-infinity breaking the gpu memory wall for extreme scale deep learning.pdf
- zero-offload democratizing billion-scale model training.pdf
- 03 llamal论文
- llama
- a survey of large language models.pdf
- llama 2 open foundation and fine-tuned chat models.pdf
- llama open and efficient foundation language models.pdf
- 01 15-大模型分布式训练框架microsoft deepspeed.pdf
- 01 20240128评论区记录.xlsx
- 01 大模型分布式训练框架microsoft deepspeed.mp4
- 03 16-meta ai 大模型家族 llama.pdf
- 03 20240131评论区记录.xlsx
- 03 meta ai 大模型家族 llama.mp4
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。