👋 欢迎访问我的博客

你好,我是Yue Shui,目前在 PwC 担任 LLM 算法工程师。我的工作包括研究和应用大型语言模型到金融、审计和代码生成等领域。这个博客是我用来记录和分享工作与学习过程中见解。文章中的语法错误或许能透露出 ChatGPT 的参与程度😉-——记得告诉我!我的兴趣包括模型训练、RAG 以及 Agent。最近,我在学习利用强化学习训练推理模型。欢迎交流!

大语言模型智能体

智能体 自 2022 年 10 月 OpenAI 发布 ChatGPT 以来,随着后续 AutoGPT 和 AgentGPT 等项目的涌现,LLM 相关的智能体(Agent)逐渐成为近年来 AI 的研究热点和实际应用方向。本文将介绍智能体的基本概念、核心技术及其最新应用进展。 ...

2025-03-27 · 24 分钟 · 11998 字 · Yue Shui

训练大模型并行和内存优化技术

背景 最近大模型的参数数量不断攀升,从最初的数十亿扩展到如今数千亿乃至数万亿级别。大模模型虽然带来了前所未有的应用效果,但与此同时,也引发了计算资源、内存管理和训练稳定性等一系列严峻挑战。因此本博客总结了一些常用分布式并行训练和内存管理技术,希望能够帮助大家更好地训练和优化大模型。 ...

2025-03-01 · 46 分钟 · 22555 字 · Yue Shui

OpenAI Deep Research 案例分享 - LLaMA 系列技术演进详解

注意:下面内容是由 OpenAI Deep Research 生成的研究案例 😊,模型会有一定幻觉和格式上的错误,仅供参考。 原文链接: LLaMA 系列技术演进详解 好的,我将撰写一篇详细的技术博客,全面介绍 LLaMA 系列的发展进展,包括从 LLaMA 1 到最新 LLaMA 3 的对比,以及其在模型架构、训练方法、推理性能等方面的演进。我会加入数学公式来解析关键技术点,如 RMS Normalization、FFN_SwiGLU、RoPE、GQA 和 BPE,并提供代码示例帮助理解。此外,我还会整理 LLaMA 最新模型与其他大模型(如 DeepSeek R1、O1/O3 等)的对比数据。 ...

2025-02-15 · 59 分钟 · 29097 字 · OpenAI Deep Research

OpenAI Deep Research 案例分享 - 深度研究技术综合研究报告

OpenAI Deep Research (OpenAI, 2025) 主要是采用以 o3 推理模型为基座的多 agent 协作方式。相关开源研究和产品之前也有不少,比如 GPT Researcher 和 Google Gemini 版本的 Deep Research (DeepMind, 2024)。不过 OpenAI 的产品是博主目前体验下来效果最好。之后咨询分析、论文综述和新闻编辑等任务都可以先让这个工具自动化完成,然后再由人工进行最后的修正和审查,怎么感觉之后我写技术博客的任务也会被替代了呢?😂 ...

2025-02-15 · 52 分钟 · 25985 字 · Yue Shui & OpenAI Deep Research

大语言模型对齐: 直接偏好优化(DPO)

这篇博客主要介绍一种比 RLHF 更精简的替代算法 DPO。与 RLHF 一样,DPO 目的是使模型输出与人类偏好保持一致,但它在实现上更加简单,并且对资源的需求更低。在项目资源受限的情况下,DPO 是一个实用解决方案。 ...

2025-02-08 · 9 分钟 · 4118 字 · Yue Shui