火山引擎大幅降价新发布豆包大模型1.6,降幅达63%
时间:2025-06-14 05:25
小编:小世评选
在日前举行的火山引擎Force原动力大会上,火山引擎总裁谭待宣布了豆包大模型1.6的发布,并对外透露该模型在价格策略上做出了重大调整。此次豆包大模型1.6的推出,不仅意味着价格在市场上又一次实现了降幅高达63%,更在定价逻辑上展现出诸多新颖的变化,预示着火山引擎在大模型领域持续深入发展的决心。
在新的定价策略中,火山引擎引入了“按输入长度区间定价”的创新模式。这种方式将企业在使用大模型时的费用,与输入的具体长度紧密挂钩,而非仅依赖于模型本身的深度思考或多模态能力。以豆包大模型1.6在最常用的0-32K输入区间为例,其输入价格被定为每百万tokens 0.8元,输出价格则为8元。此定价显著低于之前的豆包1.5版本,企业在这些区间内的使用成本仅为原来的三分之一,使得更为强大的新模型变得更加触手可及。
新定价策略的另一大亮点在于大幅降低云计算的使用成本。结合其他新模型的升价情况,比如视频生成模型Seedance 1.0 pro,每千tokens的价格仅为1.5分,这相对市场上大多数视频生成产品便宜约70%。例如,企业如果需要生成2700条5秒1080P的视频,仅需支出1万元,相较人工制作成本更是大幅降低。因此,这些变化不仅利好企业客户,也为火山引擎在市场竞争中赢得关键优势。
在谈及豆包大模型1.6的降价原因时,谭待表示,去年豆包模型在结构和工程上进行了深度优化,致使其成本下降幅度高达99%以上,成功开启了行业降价潮。而此次的降价更多是针对上下文窗口的优化和商业模式的创新。上下文窗口影响着模型处理信息的效率和实时性,理解历史对话记录的能力直接关系到模型的时间响应与用户体验。
火山引擎通过对不同长度的请求进行分组、调度,采用PD分离的策略,将相同长度的任务并行处理,显著提升了计算效率。这一举措如同快递业中的打包理念——分类处理,优化资源配置,避免了因任务混杂造成的处理延误。
值得注意的是,在输入32K-128K和128K-256K的区间,豆包1.6仍然设定了较高的成本,价格比常用区间更为昂贵。这反映出火山引擎的市场策略并非一味追求价格的普及化,而是更为精准地服务于用户需求。
在应用层面,自豆包大模型推出以来,已在市场上收获可观的成绩。数据统计显示,豆包大模型的日均token使用量超过16.4万亿,较之去年5月首次发行时增长了137倍,基本实现了去除企业使用的成本障碍的目标。此次再次降价,旨在促使云服务领域的新机会不断涌现。
未来,随着大模型需求的不断增长,火山引擎将大力开发与Agent相关的应用产品。谭待在采访时表示,企业在积极向AI创新与数字化转型过程中,火山引擎将以构建完善的云基础设施为目标,为加速Agent技术的普及铺平道路。今年,火山引擎设定了非常激进的市场布局目标。
火山引擎尤其关注Agent带来的新市场机遇。随着字节跳动推出的AI编程产品TRAE加入战局,豆包大模型在AI coding能力方面的进步,使得开发者能够处理大型项目以及复杂逻辑链等工作。TRAE的内测显示其功能越来越强大,推动着80%以上的工程师依托豆包大模型完成提升效率的创新开发。
来看,依托大幅降价的新定价策略和高效的调度体系,火山引擎正努力在日益激烈的市场环境中巩固其地位。未来如何继续推动大模型的应用进程、满足企业需求,将是火山引擎面临的重要课题。随着AI时代的来临,火山引擎在Agent领域的布局,显示出对未来数字化发展的清醒判断与坚定决策。