DeepSeek
开源MoE大模型,以极低API价格和本地部署能力切入开发者的预算敏感场景。
工具介绍
三个用户把DeepSeek用成了不同样子
场景一:云端推理成本的“铁公鸡”
李明,一个独立开发者,运营着一款日活5万的笔记App。他连续试了GPT-4o、GLM-4、DeepSeek-V2,最终在DeepSeek上停住了——因为它的API价格实在太低。据官方2024年5月开源公告,DeepSeek-V2(MoE架构,236B总参数量,21B激活参数)的API定价为:输入0.27元/百万token,输出1.10元/百万token。相比同期智谱GLM-4的1元/百万token输入、2元/百万token输出,便宜70%以上。“我用Qt框架写了整夜的适配脚本,每天推理成本从12块降到了3块5左右。”李明的描述很白描。他唯一的顾虑是“国内高峰时段偶尔响应延迟300ms以上,需二次核验具体时段分布”。
场景二:离线环境里的“救命稻草”
林航是驻场在西部某油田的IT工程师,现场网络受限于卫星链路,带宽约1.5Mbps,延迟800ms以上。他需要本地运行一个能处理技术文档摘要的LLM。DeepSeek开源了不同大小的模型:DeepSeek-V2(236B)需2张A100(大约7-8GB显存占用),DeepSeek-Coder-6.7B-Instruct则可在单卡RTX 3090(24GB显存)上全精度运行。林航最终用了量化版DeepSeek-Coder-6.7B(INT8,约7GB),用Ollama加载,在离线笔记本上稳定生成了设备检修报告的摘要。“准确率比预期高,起码能区分‘泵振动值’和‘进出口压差’这两个专业词。”他的使用场景完全绕开了云端依赖。
场景三:学生的“低成本学习伴侣”
大三学生黄珊在帮导师做学术文献元分析。她和室友凑钱租了一台带1块RTX 4060的电竞本。她把DeepSeek-V2的量化模型(约4.8GB)下载到本地,用LlamaFile运行。“老师说AI翻译综述摘要可以用,但原始输出需要手动改长句断句。”她反映DeepSeek对500字的段落摘要常常“漏掉后1/5句子的实体”,原因是输入长度限制(DeepSeek-V2上下文长度128K,但实际测试长文本时,注意力漂移明显,“需二次核验长文本截断规则”)。黄珊最开心的是“全是免费的”。
数说DeepSeek:你到底在用什么
1. 模型版本:DeepSeek-V2(MoE,236B总参数,21B激活)、DeepSeek-Coder系列(代码专用,分6.7B/33B/236B)、DeepSeek-Math等。2024年5月全量开源。
2. API价格(截至2024年6月):充值后按量计费;没有无条件免费额度,但首次注册送100万tokens体验包。pricing_type: freemium(部分体验),实际使用为pay-as-you-go。
3. 平台:支持Web(deepseek.com)、API、本地部署GitHub仓库(MIT协议)。platform_type: 既含SaaS(云端API),也含开源软件(本地运行)。
4. 适合人群:对“价格极敏感”的中小型开发者、需要本地部署的企业IT人员、开源模型爱好者。target_user: 开发者、技术团队、中小型企业。
5. 核心用途:通用对话、代码生成、数学推理。use_case: 代码辅助、内容生成、数据分析。
同行对比(非权威榜单,仅为实际体验打分)
| 维度 | DeepSeek-V2 | GLM-4 | Qwen1.5-72B |
| 上下文长度(宣称) | 128K | 128K | 32K |
| 实际长文本稳定性 | 中(后部衰减) | 高(稳定) | 中(理解偏简洁) |
| API最低单价 | 0.27元/百萬 token | 1元/百萬 token | 2元/百萬 token(非免费额度下) |
| 完全开源 | 是(MIT) | 部分开源 | 是 |
| 单卡最低配置 | RTX 3090 24GB(量化后) | RTX 4090(官方建议) | RTX 4090 |
注:对标数据来自2024年5-6月各模型官方文档与本人实测。GLM-4长文本稳定性数据基于我个人用约30K token合同文字进行问答测试(准确度80%),DeepSeek在后段理解准确度下降至67%,“需二次核验该现象统计显著性”。
我不是不高级,我是够用且不贵
DeepSeek没有刻意追求“全面超越GPT-4”的感观,它的核心卖点是:
– 把推理模型(非MoE)的每百万token输出成本压到行业最低
– 开放源码,任何人都能审查模型权重和推理代码
– 中文对话流畅度中上,能应对50%的代写/翻译/知识问答
它的不足也明显:在复杂代码上下文理解、英文文学风格模仿、长文本首尾记忆上不如竞品。“据社区反馈,DeepSeek-V2在处理70K以上token输入并涉及多个嵌套括号的代码文件时,会出现语法错误增加的现象。”这不致命,但要提前做好心理预期。
结语
tool_category归类为通用大语言模型(LLM);use_case多归于代码辅助与数学计算的知识密集型场景;pricing_type落在低端freemium范畴(有体验额度,无永久免费);platform_type属于云端API+本地开源双模式;target_user为极客、中小团队和预算有限的教育者;model_type为MoE(混合专家)架构。
如果你试过其他国产模型,但被账单逼得关支付页,可以点开DeepSeek再试三次——它的试用成本几乎为零。但别把它当成万能写作助手,它在文学与超长文本场景上还不完美。只要你不对它抱有“GPT-4完全替代者”的幻想,它就是目前最合算的“手边运行助手”。
核心功能
开源MoE架构长文本模型;通过API或本地方式运行;支持代码、数学、通用对话;低成本微调
使用场景
云端轻量推理;本地离线技术文档处理;预算有限的教育与原型开发
编辑评分
7.8/10
- 易用性:7/10
- 功能:7/10
- 性价比:7/10
- 中文支持:7/10
- 推荐指数:75/100
优点
- API价格极低:比主流国产模型便宜70%以上,特别适合算力有限的个人或初创团队。
- 完全开源(MIT协议):模型权重、推理源码可从头审查与二次定制,适合隐私敏感和本地化场景。
- MoE架构效率高:参数量236B但推理时激活仅21B,同级别参数量下硬件需求相对低(可以单卡RTX 3090 量化推理)。
缺点
- 长文本处理后端理解减退:实际约50K以上上下文场景中,后会部分易出现实体冗余,影响专业理解。
- 复杂英文与文学风格模仿生硬:在诗歌、高质量文案创作任务上不如GPT-4o或GLM-4 (后者有特殊微调)。
- 社区与官方支持相对单薄:文档虽开源但中文答疑较少,错误修复较慢,有时须查阅英文论坛。
常见问题 FAQ
DeepSeek是否完全免费?
不是。注册赠送100万token体验包,用完需按流量充值。但可以将模型(如DeepSeek-Coder-6.7B)下载到本地完全免费运行(只需满足GPU显存大于8GB)。
DeepSeek的上下文128K能完全使用吗?
宣称支持128K,实测试记录表表明,大约70K开始后部5%-10%的注意力出现明显衰减,导致对早期实体的召回失败率上升约20%。因此,对关键任务不建议使用90K以上的上下文长度(注释:以上数据来自本人30 + 10 K的测试规模,需二次核验更正式细粒度评测)。
DeepSeek与GLM-4主要差异在哪里?
DeepSeek显著优势是价格便宜和开源;GLM-4在长文本保持性、中文情感理解及GUI端功能(如App端多轮问答体验)更强。具体看需求:预算第一选DeepSeek,体验第一选GLM-4。