面向大型语言模型(LLM)的系统化学习与实战笔记。内容覆盖 Transformer 基础、分词与嵌入、位置编码、激活与归一化、优化方法、参数高效微调(PEFT)、主流模型对比与模型评估,配套配图与示例,便于上手与复习。
适合对象:正在系统入门/进阶 LLM 的工程师与学生。
-
01:Transformer 论文精读与扩展
- 论文精读:《Attention Is All You Need》
- 扩展:BERT 家族
-
02:分词器(Tokenizer)原理与实践
-
03:Embedding(词/句向量)
-
04:位置编码(Positional Embedding)
-
05:激活函数与归一化(Activations & Normalizations)
-
06:优化方法(Optimizations)
-
07:LLM 指令微调(Fine-tuning)与参数高效微调(PEFT)
- 总览:
docs/07 LLM Fine tuning/07 LLM Fine tuning.md - LoRA:
docs/07 LLM Fine tuning/LoRA.md - Prefix-Tuning:
docs/07 LLM Fine tuning/Prefix-Tuning.md - 模型微调实战
- Qwen2-Medical-SFT:
docs/07 LLM Fine tuning/模型微调实战/Qwen2-Medical-SFT/
- Qwen2-Medical-SFT:
- 总览:
-
08:主流模型对比
- 总览:
docs/08 主流模型/01 主流模型对比.md - GPT系列:
docs/08 主流模型/02 GPT系列.md - Llama系列:
docs/08 主流模型/03 Llama系列.md - Deepseek系列:
docs/08 主流模型/04 Deepseek系列.md - Qwen系列:
docs/08 主流模型/05 Qwen系列.md - 研究报告:
docs/08 主流模型/研究报告/
- 总览:
-
09:模型评估(Ragas/Deepeval 等思路与指标)
-
10:模型部署
-
11:模型训练
- 目录:
docs/11 模型训练/(待完善)
- 目录:
-
15:开源项目
-
18:面试题整理
- Part 1:
docs/18 面试题/part1.md
- Part 1:
-
20:数据集
提示:含有配图的章节在对应目录下提供图片资源,Markdown 中已使用相对路径引用,可直接在本地或 Git 平台预览。
- 01 Transformer → 02 Tokenizer → 03/04 Embedding 与 Position 夯实基础
- 05 激活/归一化 → 06 优化方法 完成训练细节
- 07 微调与 PEFT → 08 主流模型对比 形成体系
- 09 模型评估 → 10 模型部署 → 11 模型训练 实践应用
- 18 面试题 → 20 数据集 回顾与查漏补缺
- 本地快速预览:直接打开
docs/index.html或docs/index.md。 - Markdown 阅读:使用 VS Code、Obsidian 或任意 Markdown 阅读器均可。
- 渲染建议:如需更佳体验,安装 VS Code 扩展(Markdown Preview Enhanced、Mermaid 等)。
- 欢迎修正错别字、补充示例、完善推导或加入参考链接。
- 请保持文件命名与目录结构一致;配图放在对应章节的
images/或同级目录中。 - 建议在段落末尾附参考文献或链接,便于长期维护。
若仓库根目录未另行声明许可协议,则默认保留所有权利。提交贡献视为同意以本仓库同等许可共享。
- Transformer: Attention Is All You Need
- 以及社区中对 LLM 生态的优秀开源资料与实践分享
