![图片[1]-100万上下文全面上线!Claude两款4.6模型取消长文本溢价,支持直塞600张图-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316002256845-1773591776-77e6fd8a0e6c295cd0527425a3a88885.png)
Claude Opus 4.6和Sonnet 4.6的100万上下文终于全面开放。 最核心的变化是,长文本不再加收任何溢价费用。在这两款模型的完整百万窗口内,统统适用标准计费规则。Opus 4.6的百万Token输入输出价格分别为5美元和25美元,Sonnet 4.6则为3美元和15美元。这里不存在任何倍率套路,发起一次90万Token的请求与9千Token的请求,单价完全一致。 随着此次正式版上线,具体迎来了以下核心升级: 首先是计费与速率的全量打通。除了统一的标准定价外,所有上下文长度均享受完整的速率限制,用户的标准账户吞吐量在整个百万窗口内完全适用。 多模态处理能力直接飙升六倍。单次请求支持的图像或PDF页面数量上限从100骤增至600。该功能已在Claude原生平台、微软Azure Foundry以及谷歌云Vertex AI同步可用。 API调用变得更加无缝。超过20万Token的长请求现在会自动处理,不再需要添加Beta测试版请求头。如果开发者原本的代码里包含该测试版请求头,系统也会直接忽略,完全不需要修改现有代码。 针对Claude Code的用户,100万上下文现在已直接内置于Max、Team和Enterprise版本的Opus 4.6中。过去这部分百万级上下文需要消耗额外的使用量,现在Opus 4.6会话会自动调用完整窗口。这大幅减少了上下文的强制压缩次数,让更多的对话记录得以完整保留。 当然,百万级吞吐量的前提是模型能够准确召回细节并进行有效推理。在MRCR v2评测中,Opus 4.6拿下了78.3%的分数,在所有具备同等上下文长度的前沿大模型中位列第一。 这种长文本处理能力带来了最直接的应用改变:开发者现在可以直接把整个代码库、长达几千页的合同文件,或者包含工具调用、观察结果和中间推理步骤的长周期智能体完整运行轨迹,原封不动地交给模型处理。过去处理长文本必须依赖的工程化改造、有损摘要提取以及上下文清理工作,现在统统成为历史,整个交互过程得以原汁原味地保留。 目前,这项100万上下文能力已经可以通过Claude原生平台,以及亚马逊Bedrock、谷歌云Vertex AI和微软Foundry直接使用。Claude Code的高级订阅用户只要切换至Opus 4.6模型,即可默认开启百万上下文体验。![图片[2]-100万上下文全面上线!Claude两款4.6模型取消长文本溢价,支持直塞600张图-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316002258542-1773591778-55fe6beb16d1adfccc1377d68b6d605b.png)
![图片[3]-100万上下文全面上线!Claude两款4.6模型取消长文本溢价,支持直塞600张图-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316002300934-1773591780-70fd936a697cac25961ac6204cd76a25.png)
--end--
最后记得⭐️我,每天都在更新:如果觉得文章还不错的话可以点赞转发推荐评论
/...@作者:你说的完全正确(YAR师)
<原文链接:https://mp.weixin.qq.com/s/HDytnquGZhQcVNM3Gsgv6g


















暂无评论内容