当前位置:首页 > Deepseek最新资讯 > 正文内容

“调用量太大,经常造成网络拥堵”!DeepSeek推出新优惠,普通用户依然免费

8个月前 (02-27)Deepseek最新资讯517

中国商报(记者 赵熠如)2月26日,DeepSeek宣布推出错峰优惠活动。即日起,北京时间每日00:30至08:30的夜间空闲时段,API(应用程序编程接口,通常用于应用开发)调用价格大幅下调:DeepSeek-V3降至原价的50%,DeepSeek-R1更低至25%。

DeepSeek表示,鼓励用户充分利用这一时段,享受更经济更流畅的服务体验。


DeepSeek推出错峰优惠活动。(截图自DeepSeek官方公众号)

关于此次DeepSeek错峰降价的原因,中国商报记者向DeepSeek大模型进行了提问。DeepSeek大模型回答称,夜间通常是计算资源使用较少的时段,通过降价吸引用户在此时间段调用API,可以提升资源利用率、避免闲置浪费。与此同时,鼓励用户在非高峰时段使用API,可以缓解高峰时段的压力,提升整体服务质量。


DeepSeek大模型回答提问。(截图自DeepSeek)

一位大模型行业从业人员告诉中国商报记者,DeepSeek错峰降价的原因是大模型所能提供的计算资源较为紧缺。

“因为DeepSeek调用量太大,经常造成网络拥堵,通过错峰优惠可以引导用户调整使用习惯,缓解压力。”资深电信行业分析师马继华告诉中国商报记者,“新技术出现以后,一定会出现不断降价的过程,DeepSeek也不例外。”

事实上,DeepSeek已历过几次API调价。

2024年4月,DeepSeek将API定价在1元/百万输入tokens、2元/百万输出tokens。2024年8月,DeepSeek宣布继续降价,其API输入费用调整为0.1元/百万tokens、输出费用为2元/百万tokens。

2025年2月初,DeepSeek的API曾经暂停调用。官方发布的公告称:“当前服务器资源紧张,为避免对您造成业务影响,我们已暂停API服务充值。存量充值金额可继续调用。”

2025年2月25日,DeepSeek API开放平台页面显示,DeepSeek已重新开放API充值。公告显示,DeepSeek-Chat模型优惠期结束,调用价格已变更为每百万输入tokens2元、每百万输出tokens8元。

不过,对于在线使用的普通用户来说,DeepSeek一直是免费的。


““调用量太大,经常造成网络拥堵”!DeepSeek推出新优惠,普通用户依然免费” 的相关文章

突传重磅,获顶级域名认可!DeepSeek引爆“新生意”,已有上千人购买

突传重磅,获顶级域名认可!DeepSeek引爆“新生意”,已有上千人购买

春节期间,在杭州的梁文锋打破了世界科技舞台上沉默许久的平静,也给全球资本市场带来了巨大扰动,特别是对以英伟达为代表的美股巨头造成了直接冲击,一度引发硅谷“恐慌”。DeepSeek的横空出世,对靠AI产...

时光基AI×DeepSeek赋能!AI钉铛智造生产ERP破局中小工业管理痛点

时光基AI×DeepSeek赋能!AI钉铛智造生产ERP破局中小工业管理痛点

2025 年人工智能重构全球产业格局的关键节点,中国工业智能化进程迎来里程碑突破。1 月 2 日,红壹科技正式发布自主研发的 **「时光基 AI」工业大模型 **,该系统深度兼容 DeepSeek 基...

从“学术助手”到“吐槽利器 ” 高校学生掀起DeepSeek另类应用

从“学术助手”到“吐槽利器 ” 高校学生掀起DeepSeek另类应用

《科创板日报》2月16日讯(实习记者 姚桐 记者 毛明江)近日,国内多所高校学生群体中掀起一股使用DeepSeek“锐评”母校及学科专业的热潮。为何年轻人选择用AI工具表达对教育体系的看法?背后折射出...

高考数学全卷重赛!新选手Gemini夺冠,豆包DeepSeek并列第二

高考数学全卷重赛!新选手Gemini夺冠,豆包DeepSeek并列第二

AI挑战全套高考数学题来了!话接上回。高考数学一结束,我们连夜使用六款大模型产品,按照一般用户截图提问的方式,挑战了 14 道最新高考客观题,不过有网友质疑测评过程不够严谨,所以这次我们加上解答题,重...

西藏大学、拉萨高新区等“尝鲜”DeepSeek

西藏大学、拉萨高新区等“尝鲜”DeepSeek

中新网拉萨5月27日电 (记者 江飞波)西藏大学近日推出“藏大智言”DeepSeek(深度求索)平台,人工智能教学服务将延伸至雪域高原。中新网记者获悉,除西藏大学外,目前西藏自治区昌都市政务云已完成D...

1200行代码逆袭!DeepSeek工程师开源轻量级vLLM,吞吐量逼近原版

1200行代码逆袭!DeepSeek工程师开源轻量级vLLM,吞吐量逼近原版

机器之心报道机器之心编辑部开源社区的人应该对 vLLM 不陌生,它是一个由加州大学伯克利分校团队开发的高性能、开源 LLM 推理和服务引擎,核心目标是提升 LLM 的推理速度(吞吐量)和资源利用率(尤...