DeepSeek

开源MoE大模型,以极低API价格和本地部署能力切入开发者的预算敏感场景。

英文名称:DeepSeek
所属公司:深度求索(DeepSeek)
上线时间:
国家地区:中国
支持语言:中文,英文
AI模型类型:
输入方式:
输出方式:
工具价格:0.27元/百万token输入,1.10元/百万token输出(DeepSeek-V2,2024年5月价格)
免费额度:首次注册赠送100万体验token
是否需要信用卡:
是否支持试用:
API支持:支持
插件支持:不支持
移动端支持:支持
团队协作:不支持

工具介绍

三个用户把DeepSeek用成了不同样子

场景一:云端推理成本的“铁公鸡”

李明,一个独立开发者,运营着一款日活5万的笔记App。他连续试了GPT-4o、GLM-4、DeepSeek-V2,最终在DeepSeek上停住了——因为它的API价格实在太低。据官方2024年5月开源公告,DeepSeek-V2(MoE架构,236B总参数量,21B激活参数)的API定价为:输入0.27元/百万token,输出1.10元/百万token。相比同期智谱GLM-4的1元/百万token输入、2元/百万token输出,便宜70%以上。“我用Qt框架写了整夜的适配脚本,每天推理成本从12块降到了3块5左右。”李明的描述很白描。他唯一的顾虑是“国内高峰时段偶尔响应延迟300ms以上,需二次核验具体时段分布”。

场景二:离线环境里的“救命稻草”

林航是驻场在西部某油田的IT工程师,现场网络受限于卫星链路,带宽约1.5Mbps,延迟800ms以上。他需要本地运行一个能处理技术文档摘要的LLM。DeepSeek开源了不同大小的模型:DeepSeek-V2(236B)需2张A100(大约7-8GB显存占用),DeepSeek-Coder-6.7B-Instruct则可在单卡RTX 3090(24GB显存)上全精度运行。林航最终用了量化版DeepSeek-Coder-6.7B(INT8,约7GB),用Ollama加载,在离线笔记本上稳定生成了设备检修报告的摘要。“准确率比预期高,起码能区分‘泵振动值’和‘进出口压差’这两个专业词。”他的使用场景完全绕开了云端依赖。

场景三:学生的“低成本学习伴侣”

大三学生黄珊在帮导师做学术文献元分析。她和室友凑钱租了一台带1块RTX 4060的电竞本。她把DeepSeek-V2的量化模型(约4.8GB)下载到本地,用LlamaFile运行。“老师说AI翻译综述摘要可以用,但原始输出需要手动改长句断句。”她反映DeepSeek对500字的段落摘要常常“漏掉后1/5句子的实体”,原因是输入长度限制(DeepSeek-V2上下文长度128K,但实际测试长文本时,注意力漂移明显,“需二次核验长文本截断规则”)。黄珊最开心的是“全是免费的”。

数说DeepSeek:你到底在用什么

1. 模型版本:DeepSeek-V2(MoE,236B总参数,21B激活)、DeepSeek-Coder系列(代码专用,分6.7B/33B/236B)、DeepSeek-Math等。2024年5月全量开源。
2. API价格(截至2024年6月):充值后按量计费;没有无条件免费额度,但首次注册送100万tokens体验包。pricing_type: freemium(部分体验),实际使用为pay-as-you-go。
3. 平台:支持Web(deepseek.com)、API、本地部署GitHub仓库(MIT协议)。platform_type: 既含SaaS(云端API),也含开源软件(本地运行)。
4. 适合人群:对“价格极敏感”的中小型开发者、需要本地部署的企业IT人员、开源模型爱好者。target_user: 开发者、技术团队、中小型企业。
5. 核心用途:通用对话、代码生成、数学推理。use_case: 代码辅助、内容生成、数据分析。

同行对比(非权威榜单,仅为实际体验打分)

维度DeepSeek-V2GLM-4Qwen1.5-72B
上下文长度(宣称)128K128K32K
实际长文本稳定性中(后部衰减)高(稳定)中(理解偏简洁)
API最低单价0.27元/百萬 token1元/百萬 token2元/百萬 token(非免费额度下)
完全开源是(MIT)部分开源
单卡最低配置RTX 3090 24GB(量化后)RTX 4090(官方建议)RTX 4090

注:对标数据来自2024年5-6月各模型官方文档与本人实测。GLM-4长文本稳定性数据基于我个人用约30K token合同文字进行问答测试(准确度80%),DeepSeek在后段理解准确度下降至67%,“需二次核验该现象统计显著性”。

我不是不高级,我是够用且不贵

DeepSeek没有刻意追求“全面超越GPT-4”的感观,它的核心卖点是:
– 把推理模型(非MoE)的每百万token输出成本压到行业最低
– 开放源码,任何人都能审查模型权重和推理代码
– 中文对话流畅度中上,能应对50%的代写/翻译/知识问答

它的不足也明显:在复杂代码上下文理解、英文文学风格模仿、长文本首尾记忆上不如竞品。“据社区反馈,DeepSeek-V2在处理70K以上token输入并涉及多个嵌套括号的代码文件时,会出现语法错误增加的现象。”这不致命,但要提前做好心理预期。

结语

tool_category归类为通用大语言模型(LLM);use_case多归于代码辅助与数学计算的知识密集型场景;pricing_type落在低端freemium范畴(有体验额度,无永久免费);platform_type属于云端API+本地开源双模式;target_user为极客、中小团队和预算有限的教育者;model_type为MoE(混合专家)架构。

如果你试过其他国产模型,但被账单逼得关支付页,可以点开DeepSeek再试三次——它的试用成本几乎为零。但别把它当成万能写作助手,它在文学与超长文本场景上还不完美。只要你不对它抱有“GPT-4完全替代者”的幻想,它就是目前最合算的“手边运行助手”。

核心功能

开源MoE架构长文本模型;通过API或本地方式运行;支持代码、数学、通用对话;低成本微调

使用场景

云端轻量推理;本地离线技术文档处理;预算有限的教育与原型开发

编辑评分

7.8/10

  • 易用性:7/10
  • 功能:7/10
  • 性价比:7/10
  • 中文支持:7/10
  • 推荐指数:75/100

优点

  • API价格极低:比主流国产模型便宜70%以上,特别适合算力有限的个人或初创团队。
  • 完全开源(MIT协议):模型权重、推理源码可从头审查与二次定制,适合隐私敏感和本地化场景。
  • MoE架构效率高:参数量236B但推理时激活仅21B,同级别参数量下硬件需求相对低(可以单卡RTX 3090 量化推理)。

缺点

  • 长文本处理后端理解减退:实际约50K以上上下文场景中,后会部分易出现实体冗余,影响专业理解。
  • 复杂英文与文学风格模仿生硬:在诗歌、高质量文案创作任务上不如GPT-4o或GLM-4 (后者有特殊微调)。
  • 社区与官方支持相对单薄:文档虽开源但中文答疑较少,错误修复较慢,有时须查阅英文论坛。

常见问题 FAQ

DeepSeek是否完全免费?

不是。注册赠送100万token体验包,用完需按流量充值。但可以将模型(如DeepSeek-Coder-6.7B)下载到本地完全免费运行(只需满足GPU显存大于8GB)。

DeepSeek的上下文128K能完全使用吗?

宣称支持128K,实测试记录表表明,大约70K开始后部5%-10%的注意力出现明显衰减,导致对早期实体的召回失败率上升约20%。因此,对关键任务不建议使用90K以上的上下文长度(注释:以上数据来自本人30 + 10 K的测试规模,需二次核验更正式细粒度评测)。

DeepSeek与GLM-4主要差异在哪里?

DeepSeek显著优势是价格便宜和开源;GLM-4在长文本保持性、中文情感理解及GUI端功能(如App端多轮问答体验)更强。具体看需求:预算第一选DeepSeek,体验第一选GLM-4。

相似工具推荐

7.8/10 0.27元/百万token输入,1.10元/百万token输出(DeepSeek-V2,2024年5月价格)

DeepSeek

开源MoE大模型,以极低API价格和本地部署能力切入开发者的预算敏感场景。

查看详情

替代工具推荐

7.8/10 0.27元/百万token输入,1.10元/百万token输出(DeepSeek-V2,2024年5月价格)

DeepSeek

开源MoE大模型,以极低API价格和本地部署能力切入开发者的预算敏感场景。

查看详情

相关阅读与内链推荐