DeepSeek“开源周”第二日,DeepSeek宣布开源DeepEP,第一个用于MoE模型训练和推理的开源EP通信库。
昨天,DeepSeek则开源了代码库Flash MLA,这是针对Hopper GPU优化的高效MLA解码内核,针对可变长度序列作了优化。
MoE(混合专家架构)和MLA(多头潜在注意力机制)被认为是DeepSeek以低成本实现杰出表现的核心原因。
简单理解,MoE架构是由多个专注于垂直技能的专家模型分工协作来实现最终输出结果,训练成本和推理成本更低。有消息称,GPT-4就使用了MoE架构,由8个220B模型组成。但MoE架构的缺点之一是会增加通信成本。
DeepEP通信库就是针对通信环节的优化,其特点包括:高效、优化的全员沟通;节点内和节点间均支持 NVLink 和 RDMA;用于训练和推理预填充的高吞吐量内核;用于推理解码的低延迟内核;原生 FP8 调度支持;灵活的 GPU 资源控制,实现计算-通信重叠。
MLA则是让模型预测更远位置的token,从而增强语义理解能力。DeepSeek的Flash MLA专为英伟达Hopper GPU打造了高效MLA解码内核,特别针对变长序列进行了优化。
责任编辑:黄学焚
特别声明:本网登载内容出于更直观传递信息之目的。该内容版权归原作者所有,并不代表本网赞同其观点和对其真实性负责。如该内容涉及任何第三方合法权利,请及时与ts@hxnews.com联系或者请点击右侧投诉按钮,我们会及时反馈并处理完毕。
- 字节跳动豆包疑接入deepseek?相关负责人:小范围测试自有模型2025-02-26
- 爆火的腾讯元宝,接入DeepSeek后超越字节豆包升至免费榜第二2025-02-24
- 本地化部署DeepSeek 福大团队构建医疗超算大模型2025-02-21
- 最新科技前沿 频道推荐
-
OPPO Find N5轻薄机身下的影像实力:哈苏三摄2025-02-26
- 进入图片频道最新图文
- 进入视频频道最新视频
- 一周热点新闻

已有0人发表了评论