PPIO率先推出了DeepSeek-V4预览版,用户可以立即体验其百万级超长上下文功能。
开源的最先进大模型能力现在可以通过简单操作直接获取。
今日,备受期待的DeepSeek-V4预览版本正式发布并对外开放代码。该版本包括两个子版本:DeepSeek-V4-Pro和DeepSeek-V4-Flash,分别提供了媲美封闭源码顶级模型的强大功能以及经济实惠的选择方案。PPIO作为中国全面集成的人工智能云服务提供商,在第一时间全面上线了这两个新版本,成为行业内最早提供这些功能的平台之一,为各类企业和开发者带来了一站式的便捷体验。
首次推出DeepSeek-V4预览版,用户可以享受到百万级超长上下文能力带来的便利。
作为新一代开源旗舰大模型,DeepSeek-V4具备处理超过一百万字的文本的能力,并在代理服务、知识世界和推理性能方面处于国内乃至全球的领先地位。
DeepSeek-V4在模型结构与上下文效率上实现了重大创新。利用先进的注意力机制,该版本能够有效压缩token信息,并通过DSA稀疏注意技术,在保持高性能的同时显著减少了计算资源的需求,从而使得处理百万级长文本成为可能。相比前一代产品,DeepSeek-V4-Pro的单个token推理FLOPs和KV缓存分别下降了73%和90%,而V4-Flash则进一步降至10%的FLOPs和93%的KV缓存。
此外,DeepSeek-V4还特别优化了代理能力。对于像Claude Code、OpenClaw等主流代理产品,在代码生成及文档编写任务上均有显著改进。
目前,DeepSeek-V4-Pro与DeepSeek-V4-Flash均已上线PPIO官网:
- DeepSeek‑V4‑Pro:总计1.6万亿参数和490亿激活参数,性能可与国际顶级封闭源模型相媲美。在智能编码方面达到开源领域最佳水平,在数学、STEM教育及竞赛编程等场景中表现出色。
- DeepSeek‑V4‑Flash:总共包含2840亿个参数以及130亿的激活参数,提供了接近DeepSeek-V4-Pro的强大推理能力,并且更加经济实惠和快速响应用户需求。
开发者只需通过PPIO官网注册账户,即可直接在线体验百万级长文本处理及下一代AI编程效率革新带来的便利。
提供最迅速、全面且易于使用的模型服务,使智能技术更贴近每一位开发者与企业。
作为一站式的人工智能云平台,PPIO凭借其领先的分布式计算资源调度和模型推理加速技术等优势,致力于为各类企业和开发人员提供“最快捷、最多样化、最简便”的AI模型解决方案。
自2025年初以来,在DeepSeek-V3/R1发布后一周内,PPIO就完成了全系列模型的部署工作,并成为首批支持深度学习全模型商业API的服务平台之一。同时,它还是唯一一个在SuperCLUE测试中准确率达到百分之百的第三方平台。截至目前,PPIO已上线近百种国内主流开源AI模型,涵盖文本、图像和视频等多种模态,开发人员可以轻松地利用一两行代码来调用这些资源构建复杂的AI应用。
当前我国的人工智能开源生态系统正处于从“可用”向“优质且引领行业”的过渡阶段。在大型模型开源浪潮的推动下,PPIO将继续深耕于人工智能基础设施领域。
除了提供“即插即用”的强大模型支持外,还通过技术创新解决了推理性能和成本之间的矛盾问题,让每一位开发者和企业都能以极低门槛和极高性价比获得顶尖的人工智能能力,使智能技术真正触手可及,助力中国人工智能开源生态持续繁荣发展。
转载
本文为量子位获授权转载,观点仅为原作者所有。

量子位的朋友们