Scaling Laws

从 GPT 系列的演进中,研究者逐渐意识到:只要持续扩大模型参数、训练数据和计算资源,大模型性能便会沿着稳定且可预测的路径不断提升。这种可预测性正是由 Scaling Laws 所刻画,它为成本高昂的预训练提供了理论基础与实践信心。随着模型规模、对齐技术以及推理阶段的计算不断协同演化,AI 的能力边界正在系统性地被推高。它不仅是构建下一代模型的基础,也是在算力约束下持续提升模型能力的关键方法论。 ...

Created: 2025-11-19 · Updated: 2025-12-03 · 9 分钟 · 4318 字 · Yue Shui

DeepSeek-V2 vs V3

DeepSeek AI 先后发布了 DeepSeek-V2 (DeepSeek-AI, 2024) 和 DeepSeek-V3 (DeepSeek-AI, 2024),这两款强大的混合专家(Mixture-of-Experts, MoE)语言模型在保持顶尖性能的同时,显著优化了训练成本和推理效率。DeepSeek-V2 拥有 236B 总参数,每次激活 21B;而 DeepSeek-V3 则进一步扩展至 671B 总参数,每次激活 37B。两者均支持 128K 上下文长度。 ...

Created: 2025-04-18 · Updated: 2025-04-18 · 46 分钟 · 23038 字 · Yue Shui

LLaMA 系列模型

LLaMA Meta AI 推出的 LLaMA 系列开源模型已成为大语言模型社区的基石之一,对推动开放研究和应用产生了深远影响。从 2023 年初发布的开创性 LLaMA,到同年性能显著提升的 LLaMA 2,再到针对特定领域(如代码、安全)的衍生模型,以及 2024 年和 2025 年相继推出的新一代 LLaMA 3 和 LLaMA 4,Meta 持续致力于提升开源模型的性能,使其逐步逼近最先进的闭源模型。下面,我们将依次介绍每个主要模型的关键技术细节。 ...

Created: 2025-04-06 · Updated: 2025-04-06 · 26 分钟 · 12788 字 · Yue Shui

大语言模型智能体

智能体 自 2022 年 10 月 OpenAI 发布 ChatGPT 以来,随着后续 AutoGPT 和 AgentGPT 等项目的涌现,LLM 相关的智能体(Agent)逐渐成为近年来 AI 的研究热点和实际应用方向。本文将介绍智能体的基本概念、核心技术及其最新应用进展。 ...

Created: 2025-03-27 · Updated: 2025-09-02 · 29 分钟 · 14131 字 · Yue Shui

训练大模型并行和内存优化技术

背景 最近大模型的参数数量不断攀升,从最初的数十亿扩展到如今数千亿乃至数万亿级别。大模模型虽然带来了前所未有的应用效果,但与此同时,也引发了计算资源、内存管理和训练稳定性等一系列严峻挑战。因此本博客总结了一些常用分布式并行训练和内存管理技术,希望能够帮助大家更好地训练和优化大模型。 ...

Created: 2025-03-01 · Updated: 2025-03-01 · 46 分钟 · 22788 字 · Yue Shui