DeepSeek API 模型价格与说明,价格比gpt-4-turbo便宜100倍!
DeepSeek-v2模型介绍
DeepSeek-V2是由杭州深度求索公司发布的第二代开源MoE模型,它在多个方面展现出了强大的性能和竞争力。首先,DeepSeek-V2的总参数量达到了236B,其中每个token激活21B参数,这使得它在处理能力上具有显著优势。此外,DeepSeek-V2在训练成本和推理效率方面也表现出色,与之前版本相比,实现了更高的性能,同时节省了42.5%的训练成本,减少了93.3%的KV缓存,并将最大生成吞吐量提高了5.76倍。
在技术指标评测中,DeepSeek-V2不仅与GPT-4、文心4.0等闭源模型处于同一梯队,而且在英文综合能力(MT-Bench)上与最强的开源模型LLaMA3-70B同处第一梯队,超过了最强MoE开源模型Mixtral 8x22B。这表明DeepSeek-V2在知识、数学、推理、编程等领域具有领先的性能。
什么是Token?
Token 是模型用来表示自然语言文本的最小单位,可以是一个词、一个数字或一个标点符号等。模型根据输入和输出的总 token 数进行计量和计费。
价格说明
CNY与USD对比
模型 | 描述 | 输入价格 (CNY) | 输出价格 (CNY) | 输入价格 (USD) | 输出价格 (USD) |
---|---|---|---|---|---|
deepseek-chat | 擅长通用对话任务,上下文长度为 32K | 1 元 / 百万 tokens | 2 元 / 百万 tokens | 0.14美元/ 百万 tokens | 0.28美元 / 百万 tokens |
deepseek-coder | 擅长处理编程任务,上下文长度为 16K | 1 元 / 百万 tokens | 2 元 / 百万 tokens | 0.14美元 / 百万 tokens | 0.28美元 / 百万 tokens |
说明:
- deepseek-chat 后端模型已更新为 DeepSeek-V2,无需修改模型名称即可访问 DeepSeek-V2。
- DeepSeek-V2 开源版本支持 128K 上下文,API/网页版本支持 32K 上下文。
扣费规则
扣减费用 = token 消耗量 × 模型单价,对应的费用将直接从充值余额或赠送余额中进行扣减。当充值余额与赠送余额同时存在时,优先扣减赠送余额。
注意:
- 产品价格可能发生变动,DeepSeek 保留修改价格的权利。请您依据实际用量按需充值,定期查看此页面以获知最新价格信息。
更新日志
版本:2024-05-17
- 模型在指令跟随方面的性能得到了显著提升,IFEval Benchmark Prompt-Level 准确率从63.9%跃升至77.6%。
- 对API端的“system”区域指令跟随能力进行了优化,显著增强了沉浸式翻译、RAG等任务的用户体验。
- 模型对于JSON格式输出的准确性得到了提升。在内部测试集中,JSON解析率从78%提高到了85%。通过引入恰当的正则表达式,JSON解析率进一步提高至97%。
感悟与想法
我认为:对于人工智能模型的价格和使用方式的明确说明,对用户来说是非常重要的。这不仅能帮助用户合理规划和使用模型资源,还能让用户更好地了解产品的价值和性能改进。随着技术的进步,定期的更新和优化也是保持竞争力的关键。
DeepSeek API 申请地址:DeepSeek 开放平台 也可以到API综合平台来购买:https://zmgpt.cc 几十种API可以随便调用!
DeepSeek-V2是由杭州深度求索公司发布的第二代开源MoE模型,总参数量达到236B,处理能力显著优势。在训练成本和推理效率方面表现出色,性能高于其他开源模型,特别擅长通用对话和编程任务。价格透明,更新及时,用户体验好。