Anthropic公司近日为其Claude系列大模型推出了全新功能——Opus 4.6极速模式(Fast Mode),这一模式在保持原有回答质量的同时,将处理速度提升至正常模式的2.5倍。然而,这一技术突破伴随着极具争议的定价策略:极速模式下的输出价格高达每百万token 150美元,是标准模式(25美元/百万token)的6倍,输入价格也同步上涨至30美元/百万token。如此激进的定价策略引发了全球开发者社区的强烈反响,舆论普遍质疑这种"速度税"是否合理。
根据官方说明,用户只需在Claude Code命令行输入"/fast"即可激活极速模式,界面会显示闪电图标确认状态。该功能同时支持VS Code扩展,操作流程与标准模式完全一致,无需额外配置或安装。Anthropic工程师Alex Albert强调,这种无缝切换体验是刻意设计的结果,旨在让开发者能立即感受到速度提升带来的生产力革命。他透露,在某些场景下,速度提升带来的体验改善甚至堪比模型智能水平的跃升。
价格争议的焦点在于性能与成本的失衡。在长上下文处理场景中,这种失衡更为显著:当输入超过20万token时,标准模式价格会翻倍至输入10美元、输出37.5美元/百万token,而极速模式则飙升至输入60美元、输出225美元/百万token。有开发者计算发现,使用极速模式处理百万token级代码库的成本可能超过2000美元,这还不包括输入部分的费用。AI工程师Dan McAteer的测试显示,虽然极速模式确实能在一分钟内修复bug,但这种效率提升是否值得支付相当于标准模式6倍的费用,仍存在巨大争议。
支撑Anthropic定价底气的,是Opus 4.6在多项基准测试中的统治级表现。在Artificial Analysis发布的Intelligence Index v4.0评估中,该模型以53分综合得分位居榜首,领先第二名OpenAI GPT-5.2两分。更引人注目的是其在代码处理能力的突破:在Terminal-Bench 2.0智能体编程测试中取得65.4%的史上最高分,代码竞技场得分较前代暴涨106分,甚至能自主完成从Rust编译器编写到Linux内核编译的复杂系统工程。这些成就使Opus 4.6被业界誉为"当前综合实力最强的大语言模型"。
技术突破方面,Opus 4.6实现了两个关键里程碑:其100万token的上下文窗口支持,使模型能处理整个大型代码库而无需分段;自我纠错机制的进化,让模型能自主判断任务难度,在复杂部分深度思考,在简单部分快速推进。这种"智能时间管理"能力在代码审查场景中表现尤为突出,模型会主动推翻不合理推理路径,在确定答案前多次审视推理过程。Anthropic完成的Rust编译器项目证明,当模型具备足够智能、长上下文和深度推理能力时,AI已能独立完成传统需要资深工程师团队才能胜任的系统工程。
这场定价争议折射出AI行业发展的深层转变。当模型智能水平逐渐触及天花板,速度正成为新的竞争维度。对于需要紧急处理线上事故的工程师而言,每秒等待都可能造成用户流失;对于独立开发者,时间节省可直接转化为产品提前上市的竞争优势。Anthropic通过极速模式试探市场反应,实质是在探索"速度智能"的商业价值边界。这种探索能否成功,将取决于开发者是否愿意为时间效率支付溢价,而答案可能重塑整个AI服务市场的定价逻辑。















