提示
获取方式在文章最底部
目录介绍
│ 01-课前准备.docx
│ 02-课程表.webp
│
├─1 Al 大模型四阶技术总览
│ 1.章节介绍.mp4
│ 2.AI技术浪潮:弱人工智能、机器学习、深度学习、大语言模型.mp4
│ 3.AI应用浪潮:高校共识、硅谷创新、中美博弈.mp4
│ 4.把握浪潮:AI 大模型助力超级个体和小团队.mp4
│ 5.AI大模型四阶技术总览:提示工程(Prompt Engineering).mp4
│ 6.AI大模型四阶技术总览:AI智能体(Agents).mp4
│ 7.AI大模型四阶技术总览:大模型微调(Fine-tuning).mp4
│ 8.AI大模型四阶技术总览:预训练技术(Pre-training).mp4
│
├─2 大语言模型技术发展与演进
│ 1.章节介绍.mp4
│ 2.统计语言模型.mp4
│ 3.神经网络语言模型.mp4
│ 4.大语言模型:注意力机制.mp4
│ 5.大语言模型:Transformer网络架构.mp4
│ 6.大语言模型:GPT-1与BERT.mp4
│ 7.大语言模型:暴力美学GPT系列模型.mp4
│
├─3 大模型开发工具库 HF Transformers
│ 1.章节介绍.mp4
│ 2.Hugging Face Transformers快速入门.mp4
│ 3.Transformers核心功能模块.mp4
│ 4.大模型开发环境搭建.mp4
│ 5.实战Hugging Face Transformers工具库.mp4
│ 6.作业.txt
│
├─4 实战Transformers模型训练
│ 1.章节介绍.mp4
│ 2.数据集处理库Hugging Face Datasets.mp4
│ 3.Transformers模型训练入门.mp4
│ 4.实战训练BERT模型:文本分类任务.mp4
│ 5.实战训练BERT模型:QA任务.mp4
│ 6.作业.txt
│
├─5 大模型高效微调技术揭秘 上
│ 1.章节介绍.mp4
│ 2.Before PEFT:Hard Prompt Full Fine-tune.mp4
│ 3.PEFT主流技术分类介绍.mp4
│ 4.PEFT - Adapter技术.mp4
│ 5.PEFT - Soft Prompt 技术(Task-specific Tuning).mp4
│ 6.PEFT - Soft Prompt 技术(Prompt Encoder).mp4
│
├─6 大模型高效微调技术揭秘 上
│ 1.章节介绍.mp4
│ 2.LoRA低秩适配微调技术.mp4
│ 3.AdaLoRA自适应权重矩阵微调技术.mp4
│ 4.QLoRA量化低秩适配微调技术.mp4
│ 5.UniPELT:大模型PEFT统一框架.mp4
│ 6.(IA)3:极简主义增量训练方法.mp4
│
├─7 大模型高效微调工具HF PEFT 入门与实战
│ 1.章节介绍.mp4
│ 2.Hugging Face PEFT 快速入门.mp4
│ 3.OpenAI Whisper 模型介绍.mp4
│ 4.实战 LoRA 微调 Whisper-Large-v2 中文语音识别.mp4
│ 5.作业.txt
│
├─8 大模型量化技术入门与实战
│ 1.章节介绍.mp4
│ 2.模型显存占用与量化技术简介.mp4
│ 3.GPTQ:专为 GPT 设计的模型量化算法.mp4
│ 4.AWQ:激活感知权重量化算法.mp4
│ 5.BitsAndBytes(BnB) :模型量化软件包.mp4
│ 6.实战 Facebook OPT 模型量化.mp4
│ 7.作业.txt
│
├─9 GLM 大模型家族与ChatGLM3-6B微调入门
│ 1.章节介绍.mp4
│ 2.基座模型 GLM-130B.mp4
│ 3.扩展模型:联网检索、多模态、代码生成.mp4
│ 4.对话模型 ChatGLM 系列.mp4
│ 5.ChatGLM3-6B 微调入门.mp4
│ 6.实战 QLoRA 微调 ChatGLM3-6B.mp4
│ 7.作业.txt
│
│
├─10 实战私有数据微调ChatGLM3.pdf
│ 1.章节介绍.mp4
│ 2.使用 ChatGPT 自动设计生成训练数据的 Prompt.mp4
│ 3.合成数据: LangChain + GPT-3.5 Turbo.mp4
│ 4.数据增强:提升训练数据多样性.mp4
│ 5.提示工程:保持批量生成数据稳定性.mp4
│ 6.实战私有数据微调 ChatGLM3.mp4
│ 7.作业.txt
│
├─11 ChatGPT大模型训练技术RLHF
│ 1.章节介绍.mp4
│ 2.ChatGPT 大模型训练核心技术.mp4
│ 3.基于人类反馈的强化学习(RLHF)技术详解.mp4
│ 4.基于 AI 反馈的强化学习(RLAIF)技术.mp4
│
├─12-混合专家模型(MoEs)技术揭秘.pdf
│ 1.章节介绍.mp4
│ 2.MoEs 技术发展简史.mp4
│ 3.MoEs 与大模型结合后的技术发展.mp4
│ 4.MoEs 实例研究:Mixtral-8x7B.mp4
│
├─13 Meta AI 大模型 LLaMA
│ 1.章节介绍.mp4
│ 2.LLaMA 1 大模型技术解读.mp4
│ 3.LLaMA 1 衍生模型大家族.mp4
│ 4.LLaMA 2 大模型技术解读.mp4
│ 5.申请和获取 LLaMA 2 模型预训练权重.mp4
│
├─14 实战LLaMA2-7B指令微调
│ 1.章节介绍.mp4
│ 2.大模型训练技术总结.mp4
│ 3.LLaMA2-7B 指令微调上手实战.mp4
│ 4.再谈中文指令微调方法.mp4
│
├─15 大模型分布式训练框架Microsoft DeepSpeed
│ 1.章节介绍.mp4
│ 2.预训练模型显存计算方法.mp4
│ 3.Zero Redundancy Optimizer ZeRO技术详解.mp4
│ 4.Microsoft DeepSpeed 框架和核心技术.mp4
│ 5.分布式模型训练并行化技术对比.mp4
│ 6.DeepSpeed 与 Transformers 集成训练大模型.mp4
│ 7.DeepSpeed 框架编译与安装.mp4
│ 8.DeepSpeed ZeRO 配置详解.mp4
│ 9.使用 DeepSpeed 单机多卡、分布式训练.mp4
│ 10.实战 DeepSpeed ZeRO-2 和 ZeRO-3 单机单卡训练.mp4
│ 11.DeepSpeed 创新模块 Inference Compression Science.mp4
│
├─16 国产化实战:基于华为 Ascend 910 微调 ChatGLM-6B
│ 1.章节介绍.mp4
│ 2.蓝色星球的算力霸主:NVIDIA.mp4
│ 3.厚积薄发的江湖大佬:Google.mp4
│ 4.努力追赶的国产新秀:华为.mp4
│ 5.华为昇腾全栈 AI 软硬件平台介绍.mp4
│ 6.实战:华为 Ascend 910B 微调 ChatGLM 6B 模型.mp4
│
└─17 智谱章节
1.GLM 大模型家族介绍.mp4
1.GLM大模型家族介绍.pdf
2.GLM 模型部署微调实践.mp4
2.GLM模型部署实践.pdf
3.CogVLM模型部署实践.mp4
3.CogVLM模型部署实践.pdf
4.选学 智谱第四代 API 介绍.mp4
4.选学 GLM4 GLM4V API 调用实践.pdf
5.选学 API 基础教学和实战-问题解决方案.txt
5.选学 API 基础教学和实战.mp4
6.使用 GLM-4 API 构建模型和应用.mp4
没有回复内容