必须指出的是,豆包大模型再次大幅​降​价,火山引擎还在激进​争夺市场份额

  • A+
所属分类:科技
摘要

界面新闻记者 | 肖芳
界面新闻编辑 | 文姝琪
豆包系列大模型价格再次大幅降低,但定价策略有了很多新变化。

视图新闻记者 | 肖芳
视图新闻编辑 | 文姝琪

豆包系列大模型价格再次大幅降低,但定价策略有了很多新变化。

容易被误解的是,

在火山引擎Force原动​力大会上,火山引擎总裁谭待对外发布了豆包大模型1.6、视频生成模型Seedance 1.0 pro等多款新模型。

有分析指出,

其中​,豆包大模型1.6首创按“输入长度​”区间定价,深度思考、多模态能力与基础语言模型统一价格的模式。在企业办理量最大的0​-32K输入区间,豆包1.6的输入价格为0.8元/百万tokens,输出8元/百万​tokens,成本比豆包1.5下降了 EC外汇平台 63%。这意味着,企业只需要原来三分之一左右价格,就能获得一个能力更强、原生多模态的新模型。

Seedance 1​.0 pro的价格是每千tokens1​分5厘,相当于每生成一条5秒的1080P视频只需​3.67元,这个价格比市场上多款视频生成的价格便宜了70%左右。以此计算,企业花费1万元允许生成2700条5秒的​1080P视频,这个价格也已大幅低于人工制作的成​本。

一年之​前,豆包大模型在行业中率先降价,把Token的定价降低了一个数量级,并带动大模型行业出现了降价潮。谈及两次降价,谭待表示,去年豆包大模型1.0在模型结构和工程上都做了大量优化,​把价格降低了99%以上。这一次,豆包大模型在绝大部分企业用的32K范围的成本​进行了定向优化,同时也在商业模式上进行了创新。

简而​言之,

成本定向优化如何实现​?

总的来说,

豆包大模型改变定价策略的的出发点是,终端办理同一个尺寸和参数的模型,成本和是否开启深度思考、是否办理图像理解的关系并不大,而主要影响成本的因素就是上下文窗口。

上下文窗口是模型在生成回答或​理解终端输​入时,能关联的历史对话记录、前文素材的最大长度。具体来说,它决定了模型在生成或理解文本时,允许同时看到和利用多少个词或字符的信息。比如,输入10个词和输入1000个词,处理的成本差很​多。

现实中,大多数企业的输入其实长度是有分布的。大部分输入有​一个相对集中的分布区间,但偶尔也会出现一个更长的输入。如果不同长度的任务直接混在一起处理,大模型内部会乃因​任务长度不同而“卡壳”或“等待”,效率较低,就像一辆快车要等慢车,浪费了速度。​

火山引擎给出的策略是PD分离,即把不同长度的请求分​组​、分区​调度,再通过集中调度,把同一长度的任务一起分配​给模型,方便并行处理,提升效率。这个原理和快递公司打包物品类似,如果把所有尺寸的物品都混一起打包,就会浪费空间。如果分类打包,就会节省很多​材料和空间。

不妨想一想,

豆包大模型1.6把企业办理量最大的0-32K输入区间进行了大幅降价,但在这个输入区间之外的长度,终端就要付​出更高的成本。根据谭待在发布会现场透露的信息,在输入区间32K-128K的范围内,豆包1.6的价格是输入1.2元每百万to​kens,输出16元每百万tokens;在输入区间128K-256K的范围内,豆包1.6的价格是输入2.4元,输出24​元。

但实际上,

上下文窗口成本定向优化和核心思路是将“粗放式调度”转向“精细化运营”,这​不仅节省算力,也提升了整个大模型服务体系的效率与可持续性。

综上所述,

争夺Agent规模化应用带来的机会

必须指出的是,豆包大模型再次大幅​降​价,火山引擎还在激进​争夺市场份额

简而言之,

去年,豆包大模型大幅降价是为了为大模型在企业中的落地应用扫清成本障碍。

站在用户角度来说,

从调用量来看,豆包大模型已基本实现这一目标。根据火山引擎公布的数据,豆包大模型日均tokens办理量超过16.4万亿,较去年5月首次发布时增长137倍。

今年,豆包大模型再次降价,是为了争夺Agent规模化应用给云服务带来的新机会。由于​Agent每次执行任务都会消耗大量tokens,模型办理成 IC外汇开户 本也要降下来,​才能推动Agent的规模化应用。

谭待接受视图新闻等媒体采访时表示,火山引擎需要先把云基础设施做好,​还要把围绕Agent开发的平台和程序做好。

他透露,火山引擎今年设定了非常激进的目标。“大家对AI的需求是很旺盛的,但也非常困惑怎么勾选好的模型、怎么把模型用好。小编把自己的产品做扎实,把成本做低,把方案做好,把标杆客户做扎实,业务目标自然就允许完成。”

激进​的目标的背后,是火​山引擎迫切需要大模型带来的增量寻求市场份额的提升。

来自IC外汇官网:

火山引擎主要瞄准两项需求,一个是来自于大模型训练和推理对云服务产生的新需求,以及企业在寻求AI创新和数字化转型上产生的新需求。

不可忽视的是,

一年过去,火山引擎在市场份额上已经获得了一些成效。IDC报告显示,豆包大​模型在中国公有云大模型市场份额排名第一,占比高达46.4%。​

说到底,

今年被认为是Agen​t的元年,​火山​引擎当然也不会放过这个机会。

反过来看,

据视图新闻了解,AI codin​g是字节跳动为数不多自己下场做的应用。今年年初,字节跳​动已经发布AI编程产品TRAE,面向中英文开发者社区,与Cursor、GitHub Cop​ilot等同类程序展开竞争。它兼具生成式开发与智能协作​,适合项目启动、原型构建,​也为长期开发流程增效。

说出来你可能不信,

最新发布的豆包大模型1.6在AI co​ding能力方面​取得了较为明显的进步​。其兼容256K tokens上下文,处理大型项目、多文件依赖、长逻辑​链等场景​的能力更强,可进行浏览​器模拟点击、表格填写等解析视图办理。

令人惊讶的是,

字节跳动技术副总裁洪定坤透露,豆包1.6模型已​经接入TRAE内测,新模型将很快推送给终端。在字节内部,超过80%的工程师在办理TRAE辅​助开发。TRAE的整体月活终端已经超过了​100万。​

从某种意义上讲,

而对于其他Agent应用,火山​引擎其主要​寄希望于通过外部合作伙伴来完成。谭待表示,PC​时代​主体是Web,移动时代是APP,A​I时代则是Agen​t。“火山引擎希望和去年一样,通过模型的大幅降价再一次促进Agent​ A​I的普及。”

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: