OpenAI Deep Research 案例分享 - 深度研究技术综合研究报告

OpenAI Deep Research (OpenAI, 2025) 主要是采用以 o3 推理模型为基座的多 agent 协作方式。相关开源研究和产品之前也有不少,比如 GPT Researcher 和 Google Gemini 版本的 Deep Research (DeepMind, 2024)。不过 OpenAI 的产品是博主目前体验下来效果最好。之后咨询分析、论文综述和新闻编辑等任务都可以先让这个工具自动化完成,然后再由人工进行最后的修正和审查,怎么感觉之后我写技术博客的任务也会被替代了呢?😂 ...

Created: 2025-02-15 · Updated: 2025-02-15 · 52 分钟 · 25985 字 · Yue Shui & OpenAI Deep Research

大语言模型对齐: 直接偏好优化(DPO)

这篇博客主要介绍一种比 RLHF 更精简的替代算法 DPO。与 RLHF 一样,DPO 目的是使模型输出与人类偏好保持一致,但它在实现上更加简单,并且对资源的需求更低。在项目资源受限的情况下,DPO 是一个实用解决方案。 ...

Created: 2025-02-08 · Updated: 2025-02-08 · 9 分钟 · 4127 字 · Yue Shui

检索增强生成 (RAG) 技术综述(长期更新中)

注意: 本文正在更新中,内容只是草稿版本,并不完善,后续会有较大变动。请随时关注最新版本。 大型语言模型(Large Language Models, LLMs)在自然语言处理领域取得了革命性的进展,展现出强大的文本理解和生成能力。然而,LLMs 并非完美无缺,它们仍然面临着一些固有的挑战,例如: ...

Created: 2025-02-03 · Updated: 2025-02-03 · 34 分钟 · 16812 字 · Yue Shui

深度学习中的归一化

引言 在深度学习中,网络架构的设计对模型的性能和训练效率有着至关重要的影响。随着模型深度的增加,训练深层神经网络面临诸多挑战,如梯度消失和梯度爆炸问题。为了应对这些挑战,残差连接和各种归一化方法被引入并广泛应用于现代深度学习模型中。本文将首先介绍残差连接和两种架构,分别是 pre-norm 和 post-norm。随后介绍四种常见的方法:Batch Normalization、Layer Normalization、Weight Normalization 和 RMS Normalization,并分析为何当前主流的大模型倾向于采用 RMSNorm 与 Pre-Norm 结合的架构。 ...

Created: 2025-02-01 · Updated: 2025-02-01 · 10 分钟 · 4690 字 · Yue Shui

OpenAI o1复现进展:DeepSeek-R1

DeepSeek AI 近期发布 DeepSeek-R1 (DeepSeek-AI, 2025),其推理性能在多个 benchmark 上已接近 OpenAI o1 (OpenAI, 2024)的水平,是开源社区成功复现 o1 的重要一步。R1 相关代码可以参考huggingface 尝试开源复现 open-r1 项目。以往的研究多依赖于海量的监督数据来提升大语言模型(Large Language Model, LLM)性能,但 DeepSeek-R1 及其早期实验 DeepSeek-R1-Zero 的成功,有力证明了纯粹大规模强化学习在提升 LLM 推理能力方面的潜力。其印证了 Richard Sutton 在 “The Bitter Lesson” 中提出的深刻见解: ...

Created: 2025-01-27 · Updated: 2025-01-27 · 36 分钟 · 17588 字 · Yue Shui