当前位置:首页 > Deepseek最新资讯 > 正文内容

DeepSeek发布开源周首个成果 可优化英伟达GPU效率

8个月前 (02-25)Deepseek最新资讯418

新京报贝壳财经讯(记者罗亦丹)北京时间2月24日上午,DeepSeek发布了其“开源周”的第一项成果:FlashMLA(直译为快速多头潜在注意力机制)的代码。

据了解,MLA(多头潜在注意力机制)正是DeepSeek降低大模型成本使用的关键技术之一,其可以显著减少大模型训练和推理过程中的内存占用,而FlashMLA则是针对Hopper GPU(一种英伟达GPU架构)开发的高效MLA解码内核,其针对可变长度序列进行了优化,目前已投入了生产,其可以使得H800达到3000GB/s内存,实现580TFLOPS(每秒浮点运算次数)计算性能。

贝壳财经记者注意到,根据此前DeepSeek发布V3大模型时公开的技术文档,该大模型正是使用英伟达的H800芯片训练而成。

上海骊翰科技咨询有限公司发文称,FlashMLA能在不损失模型性能的前提下,将缓存体积压缩至原来的1/4,从而大幅降低显存需求。例如,原始需要存储的100GB中间结果,压缩后仅需25GB,通过开源让企业可以直接使用FlashMLA来优化自家模型。随着FlashMLA的普及,AI推理有望进入千元级硬件跑百亿模型的时代。


“DeepSeek发布开源周首个成果 可优化英伟达GPU效率” 的相关文章

中国联通:针对DeepSeek系列模型进行了优化升级,平均节省30%推理计算量

中国联通:针对DeepSeek系列模型进行了优化升级,平均节省30%推理计算量

中国联通近日宣布,继1月开源元景“自适应慢思考”思维链大模型后,又针对DeepSeek系列模型进行了“自适应慢思考”优化升级,平均可节省约30%的推理计算量,现已开源。这也是目前业界首个对DeepSe...

总编视点|DeepSeek能给运营带来多大“深度”

总编视点|DeepSeek能给运营带来多大“深度”

运营商的终极目标不应是“引入一个DeepSeek”,而是将自身重塑为AI原生企业。DeepSeek的横空出世,不仅打破美国企图在算力上卡中国“脖子”的局面,更推动算力普惠千行百业。在这样的背景下,国内...

中兴通讯发布AiCube DeepSeek一体机

中兴通讯发布AiCube DeepSeek一体机

人民财讯3月19日电,MWC25巴塞罗那展会期间,中兴通讯正式发布AiCube DeepSeek一体机,为企业提供高效的大模型商业化解决方案。AiCube DeepSeek一体机通过集成高算力硬件,易...

安徽率先完成DeepSeek满血版本地化部署全省试用推广

安徽率先完成DeepSeek满血版本地化部署全省试用推广

人民财讯3月11日电,据安徽日报,记者3月10日从安徽省数据资源管理局获悉,安徽省率先在全国省级层面完成DeepSeek满血版(671B)本地化部署,推出无差别综窗、公文写作、语音转文字等16个典型应...

太龙药业:公司目前未与DeepSeek合作

太龙药业:公司目前未与DeepSeek合作

每经AI快讯,有投资者在投资者互动平台提问:请问贵公司是否已经部署了DeepSeek?如果已经部署了,请问主要应用于哪些具体的业务?公司接入DeepSeek有哪些成本、收益方面的考量?如果公司计划在未...

绿联NAS+Deepseek的新玩法:本地化部署与AI创新

绿联NAS+Deepseek的新玩法:本地化部署与AI创新

在AI技术加速落地的2025年,绿联NAS产品线也在进行全面AI化升级,无论是年初在2025 CES展上发布全球首款内置大型语言模型(LLM)的AI NAS iDX6011系列,还是近期推出了一系列基...