DeepSeek开源:推理引擎技术积累,携手vLLM深度合作,AI生态性能提升

AI前言2周前更新 yizz
4,181 0 0
广告也精彩

DeepSeek 开源推理引擎技术积累 回馈与 vLLM深度合作

为什么 DeepSeek 选择开源推理引擎?

DeepSeek 近期宣布开源其自研推理引擎,但并非直接开源内部完整代码库,而是选择将其核心优化成果贡献给现有的开源项目,特别是 vLLM。这主要是因为市场对 DeepSeek-V3DeepSeek-R1 等模型的高效部署方案需求日益增长,促使 DeepSeek 思考如何回馈社区,加速整个 AI 生态的发展。

DeepSeek 为何不直接开源完整推理引擎代码库?

DeepSeek 在评估了直接开源内部完整推理引擎的可行性后,发现存在以下几个关键障碍:

  1. 代码库分歧显著:内部引擎源自一年多前的 vLLM 早期分支,经过长期针对 DeepSeek 模型的深度定制优化,已与 vLLM 主线或其他通用推理框架产生巨大差异。直接开源此版本不仅难以被社区广泛应用和扩展,维护成本也极高。
    • 可以理解为,DeepSeek 的内部引擎就像一个深度改装过的赛车,虽然性能很强,但很多部件都是定制的,很难直接给普通家用车的用户使用,而且维护起来也很麻烦。
  2. 基础设施强依赖:该引擎与 DeepSeek 内部的集群管理系统、特定的硬件配置和运维流程紧密耦合,外部用户几乎无法在标准环境下直接部署,需要进行大规模重构才能剥离这些依赖,这违背了开源项目通常追求的易用性原则。
    • 这就像一个只能在特定赛道和特定团队配合下才能发挥作用的赛车,普通用户没有配套的设施和团队,根本无法使用。
  3. 有限的维护带宽DeepSeek 坦言,作为一家以模型研发为核心的团队,他们缺乏足够的资源来长期维护一个需要持续投入、支持广泛用例的大型开源项目。贸然发布可能导致项目后续支持不足,损害用户体验。
    • 这就好比,DeepSeek 主要精力是研发新赛车,没有足够的人力来长期维护一个庞大的开源项目。

DeepSeek 如何与 vLLM 合作?

面对这些现实制约,DeepSeek 选择了与现有开源项目(特别是 vLLM)紧密合作的路径,以更灵活、更易于集成的方式分享其技术积累。具体策略包括:

  • 提取可复用的独立特性,将其模块化后作为独立的库贡献出来。
  • 直接分享优化细节,向 vLLM 等项目贡献设计思想、实现方法甚至具体的代码补丁。
    • 例如,DeepSeek 可以将某个特定的优化算法封装成一个独立的 Python 库,用户可以直接安装并使用该库来提升 vLLM 的性能。

社区如何评价 DeepSeek 的开源策略?

社区对 DeepSeek 的贡献内容的期待值很高。此前已有分析指出,vLLM 在吸收 DeepSeek 2 月的“开源周”所公布论文中的部分优化后,处理 DeepSeek 模型的性能已有显著提升(约 3 倍)。vLLM 项目官方账号在社交平台X上明确表示支持,认为 DeepSeek“以正确的方式开源引擎”,即将改进带回社区使人人受益,而非创建一个独立的仓库。技术社区的讨论也倾向于认为,这种分享“know-how”和可集成模块的方式,比发布一个难以维护的代码“僵尸”更有价值。

DeepSeek 的推理性能有多大提升空间?

根据 DeepSeek 此前公布的推理系统内部测试结果,每个 H800 节点在预填充期间平均吞吐量达到 73.7k tokens/s 输入(包括缓存命中),或在解码期间达到 14.8k tokens/s 输出。相比之下,有开发者使用 vLLM 在高并发下,使用 sharegpt 数据集时基准测试约为 5K total tokens/s,随机 2000/100 测试达到 12K total token/s 的吞吐量。这表明推理性能优化领域仍有巨大提升空间。

DeepSeek 未来的模型发布策略是什么?

DeepSeek 在公告中特别澄清,本次宣布的开源路径仅针对其推理引擎代码库。对于未来模型发布,公司将继续秉持开放协作的态度,致力于在新模型推出前与社区及硬件伙伴同步推理优化工作,确保社区能在模型发布首日(Day-0)获得最先进(SOTA)的推理支持(或许这项工作也是为不久后到来的 R2 做铺垫)。其最终目标是构建一个同步生态,让前沿 AI 能力能在多样化硬件平台上无缝落地。

我认为:

DeepSeek 的开源策略,与其说是开源,不如说是更务实的技术共享。避免了重蹈覆辙,创造出一个无人维护的“僵尸”项目。这种与社区深度合作,将技术积累贡献给现有项目的方式,更值得其他公司借鉴。与其追求一时的名声,不如踏踏实实地为整个 AI 生态贡献力量,最终受益的还是整个行业,和他们自己。

© 版权声明
chatgpt4.0

相关文章

error: Content is protected !!