PPIO 上线 DeepSeek-Prover-V2-671B

摘要

4 月 30 日,DeepSeek 在 Hugging Face 开源了 DeepSeek-Prover-V2-671B 新模型。作为一站式 AIGC 云服务平台,PPIO 派欧云在第一时间上线了 DeepSeek-Prover-V2-671B!让开发者能低成本快速使用并助力搭建创新场景。

4 月 30 日,DeepSeek 在 Hugging Face 开源了 DeepSeek-Prover-V2-671B 新模型。作为一站式 AIGC 云服务平台,PPIO 派欧云在第一时间上线了 DeepSeek-Prover-V2-671B!让开发者能低成本快速使用并助力搭建创新场景。

DeepSeek-Prover-V2-671B 是一款基于 671B 参数的 MoE 大模型。在模型架构上,该模型使用了 DeepSeek-V3 架构,采用 MoE(混合专家)模式,具有 61 层 Transformer 层,7168 维隐藏层。同时支持超长上下文,最大位置嵌入达 163840,使其能处理复杂的数学证明,并且采用了 FP8 量化,可通过量化技术减小模型大小,提高推理效率。

PPIO 平台 DeepSeek-Prover-V2-671B 模型的基本信息:

●   价格:  输入: ¥4/百万 tokens,输出: ¥16/百万 tokens

●   上下文窗口:160k,最大输出 token 数:160k

据了解,PPIO 派欧云是致力于为企业及开发者提供高性能的 API 服务,目前已上线 DeepSeek R1/V3、Llama、GLM、Qwen 等系列模型,仅需一行代码即可调用。并且,PPIO 通过 2024 年的实践,已经实现大模型推理的 10 倍 + 降本,实现推理效率与资源使用的动态平衡。

来源:互联网

最新文章

极客公园

用极客视角,追踪你不可错过的科技圈.

极客之选

新鲜、有趣的硬件产品,第一时间为你呈现。

张鹏科技商业观察

聊科技,谈商业。