【机器学习/人工智能】greedy-大模型微调实战营-应用篇

该帖子部分内容已隐藏
付费阅读
金币 14
此内容为付费阅读,请付费后查看

提示

获取方式在文章最底部

目录介绍

├─01 第一周
│ └─01 第一节 2024年1月21日
│                └─01 开营+大模型介绍、Transformer
│                                01 开营.mp4
│                                02 大模型爆发式发展.mp4
│                                03 大模型是如何炼成的.mp4
│                                04 Transformer的应用.mp4
│                                05 Self-Attention.mp4
│        
├─02 第二周
│        └─01 第二节 2024年1月28日
│                        └─01 Transformer、Encoder、Advanced
│                                                01 Transformer Part1.mp4
│                                                02 Transformer Part2.mp4
│                                                03 Encoder-based and Decoder Based LLMs.mp4
│                                                04 Advanced Topics.mp4
│        
├─03 第三周
│        └─01 第三节 2024年2月25日
│                        └─01 大模型微调概览 Lora微调
│                                01 大模型微调概览.mp4
│                                02 Lora微调-Lora算法.mp4
│                                03 Lora微调-从零实现Lora到Roberta.mp4
│        
├─04 第四周
│        └─01 第四节 2024年3月3日
│                        └─01 Alpaca、AdaLoRA、QLoRA
│                                01 Alpaca.mp4
│                                02 AdaLoRA.mp4
│                                03 QLoRA.mp4
│        
├─05 第五周
│        └─01 第五节 2024年3月17日
│                        └─01 Prefix Tuning、Quantization
│                                01 Prefix Tuning.mp4
│                                02 Quantization01.mp4
│                                03 Quantization02.mp4
│                                04 Quantization Methos for LLM.mp4

└─课件资料.zip

请登录后发表评论

    没有回复内容