LLM Infra Tutorial
面向中级工程师的 LLM 基础设施课程,涵盖 GPU 显存、分布式并行、推理系统与 RLHF。
从 GPU 显存层级到 NCCL 通信原语,理解 LLM Infra 优化的两大基石。
从 DDP 到混合并行,系统梳理大模型训练中的所有并行策略。
深入 PagedAttention 与 RadixAttention,理解现代 LLM 推理引擎的核心设计。
从 RLHF 四模型架构到 verl 系统实现,理解为什么 RLHF 本质上是一个系统问题。
从 Megatron-Core 架构到 Megatron-Bridge 桥接机制,深入剖析 MoE 大模型训练中的并行策略、通信优化与计算融合。