首页能源头条推荐资讯详情
DeepSeek-V4预览版上线并开源
发布者:
来源:
两者最大的共性亮点是均支持高达100万tokens(约百万字)的超长上下文窗口,最大输出长度可达384K tokens,并且同时支持“非思考模式”与“思考模式”,在思考模式下还支持通过reasoning_effort参数设置high或max的思考强度。
在具体的性能表现上,官方直言DeepSeek-V4在Agent能力、世界知识和推理性能上均实现了国内与开源领域的领先。
首先是Agent能力,V4-Pro相比前代有显著增强,在Agentic Coding评测中已达到当前开源模型最佳水平。据内部评测反馈,其使用体验优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式(与Opus 4.6思考模式仍有一定差距)。
V4-Flash则在简单Agent任务上与Pro版旗鼓相当,但在高难度任务上稍有逊色。其次是世界知识,V4-Pro在世界知识测评中大幅领先其他开源模型,仅稍逊于顶尖闭源模型Gemini-Pro-3.1。
最后是推理性能,在数学、STEM、竞赛型代码等硬核测评中,V4-Pro超越了当前所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的优异成绩。
此外,DeepSeek-V4在架构层面也有实打实的创新。该系列开创了全新的注意力机制,在token维度进行压缩,并结合了DSA(DeepSeek Sparse Attention)稀疏注意力,配合流形约束超连接(mHC)和Muon优化器等设计,实现了全球领先的长上下文能力。
更重要的是,这种方法相比于传统全注意力机制,大幅降低了对计算量和KV缓存的需求(例如V4-Pro相比前代FLOPs降低73%,KV缓存大小减少90%),让百万字上下文成为真正可落地的普惠能力。
即日起,用户登录官网或官方App即可直接体验,API服务也已同步更新。开发者只需将model_name修改为deepseek-v4-pro或deepseek-v4-flash即可调用,base_url保持不变,且完全兼容OpenAI ChatCompletions与Anthropic接口格式。
此外,深度求索也同步公开了技术报告及模型权重(Hugging Face与ModelScope平台均可获取),方便业界进行研究与部署。
反馈举报
声明:以上信息仅代表发布者自身观点,并不代表本平台赞同其观点,也不代表本平台对其真实性负责。
大家都在看

广告
评论 0
网友评论仅供其表达个人看法,并不表明平台立场。全部评论
加载失败
总发布:271粉丝:0
相关推荐
- 加载失败
- 加载失败
- 加载失败
- 加载失败
- 加载失败
往事随風
- 加载失败
- 加载失败
- 加载失败
冬天的蝉
- 加载失败
- 加载失败







