当前位置:首页 > Deepseek最新资讯 > 正文内容

究竟会花落谁家?DeepSeek最新大模型瞄准了下一代国产AI芯片

3个月前 (08-22)Deepseek最新资讯304

  它采用了全新的混合推理架构,让模型能在一个统一框架内支持「思考」与「非思考」两种模式。V3.1 通过训练后优化,在工具使用与编程、搜索等智能体任务上表现均获得了较大提升。

  与 DeepSeek 自己此前的模型相比,V3.1 的性能提升显著,它解决问题需要更多步骤,但经过了思维链压缩训练,在任务表现持平的情况下,token 消耗量可以减少 20-50%,因此有效成本与 GPT-5 mini 相当。

  除了模型性能的提升之外,值得关注的是,DeepSeek 昨天在其微信公众号文章介绍 DeepSeek V3.1 的时候,特意回复指出,UE8M0 FP8 是针对即将发布的下一代国产芯片设计的机制。

  根据 Hugging Face 的介绍文档,DeepSeek V3.1 的模型参数量为 685B,其在训练过程中采用了 UE8M0 FP8 缩放浮点格式,以确保与微缩放浮点格式的兼容性。

  其中,E 和 M 分别代表指数(Exponent)和尾数(Mantissa)的位数,U 表示无符号(Unsigned),可能针对激活值的非负特性优化。因此,UE8M0 可能是指新模型应用的特殊量化策略。

  所谓 FP8,其全称为 8-bit floating point(8 位浮点数),是一种超低精度的数据表示格式,用于深度学习中的训练与推理。相较于 FP32(单精度)或 FP16(半精度)等传统浮点格式,FP8 的主要优势包括如下,因此可以在尽量保持数值稳定性和模型精度的前提下,进一步降低存储和计算开销:

  显著节省显存,比如 FP32 占 4 字节,FP16 占 2 字节,而 FP8 仅占 1 字节。当推理规模达到百亿甚至千亿参数时,节省极为可观;

  保持模型精度,FP8 通过缩放因子以及混合精度训练,在多数场景下能接近 FP16/FP32 的精度。

  近年来,除了 NVIDIA 之外,Meta、英特尔、AMD 等也都开始研究 FP8 训练与推理,有成为业界「新黄金标准」的趋势,核心思路在于「两个格式配合使用」。此次,DeepSeek V3.1 此次采用 UE8M0 FP8,意味着其开始在 FP8 技术栈上做自主创新。

  根据很多人的猜测,UE8M0 只能表示非负数,将覆盖非常大的正数范围或者零;8bit 全部用于指数deepseek,代表了极宽的范围,尤其适合处理梯度、激活值等跨数量级变化极大的数据;没有尾数,代表了数值精度极低(在某个指数范围内无法表达中间值),误差也可能非常大。

  此外,根据前文提到的要兼容微缩放浮点格式,这种格式的思路是在小块数据中引入外部缩放因子来补偿精度。因此 UE8M0 也可能采用这种思路,从而在国产芯片中实现低比特宽度存储和快速计算。

  而在国内,包括华为、寒武纪在内多家厂商的新一代 AI 芯片都可以支持 FP8 格式,这也让它们再次成为业界和资本圈关注的焦点。其中华为提出的HiFloat8 (HiF8)方案通过「单一格式 + 锥形精度(tapered precision)」的思路,能够兼顾精度和范围,覆盖正向和反向传播。

  目前看来,在 DeepSeek V3.1 上使用国产芯片训练的概率还比较小,UME8 M0 应该是为国产推理芯片优化所使用的机制。

  不过既然 DeepSeek 这回已经明确指出了,我们可以期待未来国产开源大模型,针对华为昇腾、寒武纪等 AI 芯片实现专门优化,并大规模应用。原文出处:究竟会花落谁家?DeepSeek最新大模型瞄准了下一代国产AI芯片,感谢原作者,侵权必删!

标签: deepseek

“究竟会花落谁家?DeepSeek最新大模型瞄准了下一代国产AI芯片” 的相关文章

DeepSeek梁文锋论文登《自然》封面,回应模型蒸馏质疑

DeepSeek梁文锋论文登《自然》封面,回应模型蒸馏质疑

  #智见科技快讯 DeepSeek梁文锋论文登《自然》封面,文章正面回应模型发布之初的蒸馏质疑deepseek。Nature:这一空白“终于被DeepSeek打破”#新华智见原文出处:D...

《AI“智”习室——DeepSeek未来创造无限》主题讲座在辽中区开展

《AI“智”习室——DeepSeek未来创造无限》主题讲座在辽中区开展

  10月28日上午10时,由沈阳市文化旅游和广播电视局主办,沈阳市公共文化服务中心承办deepseek,沈阳市图书馆执行,辽中图书馆、辽中滨河城市书房协办的系列公益讲座,在辽中区滨河城市...

DeepSeek低调升级,上下文窗口容量由64k扩展至128k,“深度思考(R1

DeepSeek低调升级,上下文窗口容量由64k扩展至128k,“深度思考(R1

  DeepSeek线上模型近日迎来重要升级,官方群于8月19日晚间宣布,其线上版本模型已迭代至DeepSeek V3.1,核心升级点在于上下文窗口容量从原有的64k扩展至128k,这一调...

DeepSeek-V3.1发布:国产算力生态跃迁新纪元

DeepSeek-V3.1发布:国产算力生态跃迁新纪元

  DeepSeek最新发布的V3.1大模型,通过自研的UE8M0 FP8精度标准,首次实现了从算法架构到硬件适配的全栈国产化协同。该技术通过动态调整浮点数的尾数与指数位分配,在国产芯片制...

破解AI“安全与性能”难题!DeepSeek-R1-Safe基础大模型在华为全联

破解AI“安全与性能”难题!DeepSeek-R1-Safe基础大模型在华为全联

  9月18日,华为全联接大会2025在上海盛大开幕。会上,华为技术有限公司与浙江大学联合发布了国内首个基于昇腾千卡算力平台的DeepSeek-R1-Safe基础大模型。在中国工程院院士陈...

OPTA给出了高阶数据,西甲面对多人防守带球过人次数:维尼修斯第一 亚马尔第二

OPTA给出了高阶数据,西甲面对多人防守带球过人次数:维尼修斯第一 亚马尔第二

  其实维尼修斯最恐怖的是这赛季上半赛季,比上赛季还恐怖,60分钟制造一球,萨拉赫都被他压过去了 这是上半赛季的多边形图,只能说小熊的发挥是比上赛季和上半赛季差了 但是很多人太夸张了 什么...