DeepSeek开源FlashMLA 意味着什么?
2025-02-24 16:19:21来源:www.luwei123.com发布:二蛋
国产AI公司深度求索(DeepSeek开源周正式启动,并公布首个开源代码。
2月24日,DeepSeek宣布启动“开源周”,首个开源的代码库为FlashMLA,这是针对Hopper GPU优化的高效MLA解码内核,针对可变长度序列作了优化,目前已投入生产。
此前2月21日午间,DeepSeek宣布,从下周开始,他们将开源5个代码库,以完全透明的方式与全球开发者社区分享他们的研究进展,每日都有新内容解锁,进一步分享新的进展,并将这一计划定义为“Open Source Week”。
根据DeepSeek在社交媒体上的内容,在H800上可以实现每秒处理3000GB数据,每秒执行580万亿次浮点运算。
Hopper是英伟达的GPU(图形处理芯片架构,例如H100和H800,发布于2022年,主要用于AI计算。
有意思的是,如果把这段内容交给DeepSeek网页版,询问开源意义,DeepSeek回答称,可以理解为专门给高性能显卡(比如英伟达的Hopper系列GPU设计的“加速神器”,用来提高AI处理任务的效率。
DeepSeek举例,假如开了一家快递分拣站,每天要处理不同大小的包裹,传统方法是用固定大小的筐子装,小包裹浪费空间,大包裹又得分筐装,效率很低。而FlashMLA就像一套“智能分拣系统”,能自动根据包裹大小调整筐子尺寸,让所有包裹快速、整齐地装车,既省时间又省钱。
马斯克旗下xAI的大模型Grok3则评价称,FlashMLA表明DeepSeek在AI硬件加速领域有深厚积累。MLA本身是他们的创新,而 FlashMLA则是将这种创新落地到硬件的具体实现,性能指标(3000GB/s和580TFLOPS足以媲美业界顶尖方案(如 FlashAttention。
Grok3 称,”想象你有个超级聪明的 AI,但它跑得不够快,因为每次处理句子时都要浪费很多时间搬数据和算复杂的数学题。FlashMLA 就像给AI加了个‘涡轮增压引擎’,专门装在英伟达的Hopper GPU上。它能让AI用更少的内存、更快的速度处理各种长短不一的句子,开源之后,AI开发会变得更快、更省钱。”
作为开源大模型,DeepSeek的火爆已经带动了开源成为如今的AI产业新趋势。
香港科技大学校董会主席、美国国家工程院外籍院士沈向洋在2025全球开发者先锋大会(GDC上表示,尽管当前闭源的份额仍然超过开源的份额,但接下来一两年将剧烈变化,平衡开源与闭源,引领未来。“大模型时代,开源并没有像以往那么多、那么快,我想,通过上海的努力,我相信开源这件事情会越做越好。中国的团队、上海的团队一定会引领开源潮流。”
头部大厂纷纷跟进开源潮流。2月21日,据阿里巴巴通义实验室科学家黄斐介绍,到目前为止,整个通义千问(Qwen系列模型的下载量达到了1.8亿,累计衍生模型总数达到9万个,衍生模型数已经超越Meta的Llama系列,成为了全球第一大开源模型系列。
百度宣布将在未来几个月中陆续推出文心大模型4.5系列,并于6月30日起正式开源;文心一言自4月1日起全面免费,所有PC端和APP端用户均可体验文心系列最新模型。
王擎宇上一篇: 东北证券下属孙公司操纵期货合约 被罚没2040万元 下一篇: 最后一篇
相关阅读
- 02-24 东北证券下属孙公司操纵期货合约 被罚没2040万元
- 02-24 业绩抬升 私募机构继续看好科技成长
- 02-24 深圳发布优化科技创新生态和人才发展环境系列政策
- 02-24 博时基金许少波:坚持长期主义 耐心穿越周期
- 02-24 华安基金李欣:DeepSeek改变AI产业范式 对科技股投资产生重大影响
- 02-24 喜茶海外首家LAB店于纽约时代广场开业,向世界展示年轻中国茶
- 02-24 矽电股份IPO注册生效:招股书前后数据“打架” 业绩下滑现阴霾
- 02-24 兴业银行上海分行:春节促消费 解锁多元 “兴” 场景
- 02-24 债券基金竞相闪现“科技风” 保守型策略频频破圈
- 02-24 尚德机构深度整合DeepSeek大模型,开启成人教育新篇章
- 02-24 国寿安保基金市场周报:本轮春季行情结构性特征明显
- 02-24 广西修订科学技术奖励办法