大模型疯狂内卷为哪般? AI普惠才是终极答案!
- 2025-06-20 23:44:05
- 515
[ZOL中关村在线原创行业观点]在这片充满无限可能的领域,大模型之间的“内卷”还远没有结束......卷参数、卷打榜、卷规模、卷成本、卷价格、卷应用、卷场景,百度、阿里、字节跳动、腾讯等,凡是拥有AI能力的企业都无不为这波浪潮“裹挟”,使大模型领域的内卷进入新高潮。
6月11日,当火山引擎总裁谭待在Force原动力大会上公布豆包大模型1.6的定价策略时,AI行业的成本曲线再次被改写。在企业核心使用的0-32K输入区间,每百万tokens输入成本降至0.8元,较前代模型降幅达63%。不可否认,这次降价不仅延续降价潮,还以"输入长度区间定价+多模态统一收费"的模式创新,定义了大模型商业化的游戏规则。
火山引擎如何实现成本优化?
豆包大模型1.6首创按“输入长度”区间定价,深度思考、多模态能力与基础语言模型统一价格的模式。
具体来看,0-32K输入区间:输入0.8元/百万tokens,输出8元/百万tokens,成本较豆包1.5下降63%,企业仅需原三分之一价格即可获得更强模型。32K-128K区间:输入1.2元/百万tokens,输出16元/百万tokens。128K-256K区间:输入2.4元/百万tokens,输出24元/百万tokens。
同时发布的Seedance1.0pro的价格是每千tokens1分5厘,相当于每生成一条5秒的1080P视频只需3.67元,这个价格比市场上多款视频生成的价格便宜了70%左右。按此计算,企业万元可生成2700条视频,成本大幅低于人工制作。
这种定价逻辑的底层是对算力消耗本质的重新认知。火山引擎技术团队发现,大模型处理成本的核心变量并非功能模块(如深度思考、图像理解),而是上下文窗口长度。就像快递公司按包裹尺寸分区打包,豆包通过PD分离策略(请求分组+分区调度),将同长度任务集中并行处理,使算力利用率提升300%,这正是0-32K区间成本骤降的技术密码。
争夺AIAgent规模化应用
这场价格革命并非偶然。回溯至2024年,豆包1.0通过模型结构重构与工程优化,将token定价直降99%,直接引发行业集体降价潮。而2025年的二次降价,则带着更明确的战略指向,为Agent规模化应用扫清成本障碍。
"Agent每次执行任务可能消耗数万tokens,若成本居高不下,生态繁荣便是空谈。"谭待在采访中直言。数据印证了这一判断:豆包大模型日均token使用量已达16.4万亿,较首秀时增长137倍,其中企业级Agent调用占比逐月攀升。
同时,为了更好地支持Agent开发与应用,火山引擎AI云原生全栈服务升级,发布了火山引擎MCP服务、PromptPilot智能提示工具、AI知识管理系统、veRL强化学习框架等产品,并推出多模态数据湖、AICC私密计算、大模型应用防火墙,以及一系列AIInfra套件。
事实上,随着模型能力的持续进步,与软件生态的日渐丰富,AI有机会成为调度者,这也需要底层能力支撑。技术层面,豆包1.6的256K超长上下文能力成为Agent落地的关键支撑。在字节内部,AI编程工具TRAE已接入该模型,80%工程师依赖其处理大型项目多文件依赖,月活用户突破100万。
IDC报告显示,豆包以46.4%的份额稳居中国公有云大模型市场榜首,服务范围覆盖全球TOP10手机厂商中的9家、80%主流车企及70%系统重要性银行。
这不仅仅是生意,更是AI普惠必由之路
AI模型的迭代正呈现类似摩尔定律的发展轨迹,其核心表现为能力密度的指数级增强。能力密度指数级增强,也正在推动着计算系统向智能化方向持续演进,以更低成本驱动大模型高效发展,成为行业技术突破的核心逻辑。
当前,随着大模型算力成本与研发门槛的持续降低,降价、免费与开源已成为不可逆的趋势。互联网行业的竞争法则在此再次验证:当免费模式占据半数以上用户市场时,传统收费体系将逐步瓦解,行业最后总会通过免费服务积累用户规模,再从生态延伸中寻找商业价值。
值得一提的是,随着大模型技术革新及成本下降的持续推进,AI普惠正从概念走向现实。未来,AI技术将深度渗透至工业、医疗、教育等全行业场景,为生产生活带来颠覆性便利。
- 上一篇:那尔那茜本科毕业后留学年
- 下一篇:国足不是最后一名