Chương trình đào tạo toàn diện về Large Language Models (LLM) - Từ lý thuyết cơ bản đến thực thi 3D Visualizer & MoE.
Dự án tích hợp một công cụ trực quan hóa kiến trúc Transformer (GPT-4) và Mixture of Experts (MoE) cực kỳ sinh động.
- Khám phá cấu trúc: Token Embeddings, Multi-Head Attention, MLP, Residual Connections.
- Mixture of Experts: Trực quan hóa cơ chế Router và các Experts.
- Hoàn toàn Tiếng Việt: Hệ thống chú giải và bước hướng dẫn đã được Việt hóa 100%.
npm install
npm run devTruy cập: http://localhost:3002
Kho lưu trữ kiến thức khổng lồ với hơn 400+ nội dung chuyên sâu được phân loại khoa học thành 29+ Module.
| Group | Modules | Chủ đề chính |
|---|---|---|
| I. Nền tảng | 01 - 05 | LLM Course, Tokenization, Embeddings |
| II. Xây dựng | 04, 06, 28, 29 | Build GPT, Pre-training, Optimization |
| III. Tinh chỉnh | 07, 08, 18 | Fine-tuning, Instruction Tuning, RAG |
| IV. Giải mã | 09 - 17, 19 | Interpretability, Mechanistic Circuits, Safety |
| V. Công cụ | 20 - 27 | Python for AI, Math for DL, PyTorch |
👉 BẤM VÀO ĐÂY ĐỂ XEM CHI TIẾT 29+ MODULES (Full Index)
- Tìm hiểu về Transformers qua Visualization Spec.
- Học về Tokenization và Embedding Spaces.
- Từng bước code GPT trong module BuildGPT.
- Hiểu về Loss functions và Optimization.
- Áp dụng các kỹ thuật SFT, RLHF, và LoRA.
- Thực hiện các Code Challenge thực tế.
- Triển khai RAG với dữ liệu tùy chỉnh.
- Nghiên cứu về AI Safety và Interpretability.
- Week 1-3: Hoàn thành Core Architecture & Visualization.
- Week 4: Đang hoàn thiện Localization 100%.
- Next: Mở rộng sang Hybrid AI & Agentic Workflows.
Dự án được phát triển bởi Pixibox. Mọi đóng góp về nội dung và mã nguồn đều được chào đón.
"Kiến thức là sức mạnh, chia sẻ là lan tỏa." 🚀
Cập nhật lần cuối: 26/02/2026