字节火山引擎云端大模型日均调用量破百万亿Tokens

刘峰
2026-03-25 10:40

3月25日消息,据消息,自今年春节以来,字节跳动云计算业务火山引擎的日均云端大模型调用量已超过100万亿Tokens(词元),不到两个月上涨了超60%。来自个人用户的Token消耗近期也明显增长。

据了解,全球目前只有三家公司的Token消耗量超过100万亿,分别是OpenAI、Google与字节跳动。不过字节跳动的Token消耗主要来自中国市场,海外市场则在快速增长阶段。一位火山引擎人士表示,目前的增长还是在一定约束条件下实现的——字节跳动旗下的视频生成模型Seedance 2.0 API尚未在海外正式上线。

watermark,image_d2F0ZXJtYXJrLnBuZz94LW9zcy1wcm9jZXNzPWltYWdlL3Jlc2l6ZSxQXzEy,g_south,t_55,x_1,y_20

图源:字节跳动

Token是AI理解和生成文本的最小语义处理单元,使用者每一次与大模型的交互,最终都要被拆解成Token来完成运算。因此Token调用量成为了衡量AI模型活跃度、AI企业算力承载力的关键指标。过去一年里,Claude Code等编程智能体(Agent)产品的走红让许多科技公司意识到了Token的重要性,随后的“龙虾(OpenClaw)热”更是把Token需求带到了大众眼前。

提供MaaS(模型即服务)业务的云厂商是这一轮Token大爆发最大的受益者之一。它们通过出售模型调用服务、推理能力和配套工具获利;市场对Token需求的激增会直接推高它们的模型调用量,并带动收入增长。

消息称,火山引擎此前曾定下了2026年MaaS业务收入超百亿元的目标,随着Seed 2.0、Seedance 2.0等模型发布、OpenClaw持续爆火,团队已提升了收入目标。就在上一年,火山引擎也曾因这块业务增长迅猛,两度上调收入目标。

1、该内容为作者独立观点,不代表电商派观点或立场,文章为作者本人上传,版权归原作者所有,未经允许不得转载。
2、电商号平台仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。
3、如对本稿件有异议或投诉,请联系:info@dsb.cn
相关阅读
9月2日消息,梦AI携手火山引擎全面开放API服务,包括文生图3.0、文生图3.1、图生图3.0、视频生成3.0pro、数字人OmniHuman、动作模仿DreamActor M1等多款梦AI同源前沿模型,为企业级用户提供丰富优质的图像视频生成和编辑服务。开发者无需额外申请,通过自助下单即可快速完成接入。
12月23日消息,优必选旗下智慧物流子公司UQI优奇与字节跳动旗下云和AI服务平台火山引擎近日正式签署合作协议,共同探索VLA、世界模型等大模型技术在人形机器人、无人物流车、工业移动机器人等产品形态中的工业物流应用。
4月18日消息,火山引擎发布自研DPU等系列云产品,并推出新版机器学习平台:支持万卡模型训练、微秒延迟网络,弹性计算可节省70%算力成本。同时,火山引擎宣布与字节跳动国内业务并池,抖音等业务的空闲计算资源可极速调度给火山引擎客户使用。火山引擎总裁谭待透露,“国内大模型领域的数十家企业,超过七成已经在火山引擎云上”。
9月12日消息,国际知名评测机构Artificial Analysis发布消息称,字节跳动Seedream 4.0已登顶文生图图像编辑排行榜榜首,在两个领域都超越了谷歌的 Gemini 2.5 Flash 。Seedream 4.0是字节跳动最新发布的豆包图像创作模型。该模型集成了文生图、图像编辑、多图融合、组图生成等多种能力,最高支持4K分辨率图像生成,已在豆包App、梦AI、扣子等产品上线,并通过火山引擎开放给企业客户。
5月29日消息,字节跳动近日上线了一款名为“剪小映”的APP,Slogan为“记录美好 智能成片”,这是继“梦AI”APP后,剪映推出的第二款AI产品,使用的是火山引擎的豆包大模型。这款产品的使用非常简单,用户手机的本地相册内只需有拍好的照片和视频,剪小映就能根据这些素材智能成片。生成的视频可直接导出高清文件保存在APP以及手机相册中,或一键分享至抖音、小红书、微信朋友圈。
9月19日消息,火山引擎在其举办的“V-Tech数据驱动科技峰会”上宣布,火山引擎数智平台VeDI推出“AI助手”,通过接入人工智能大模型,帮助企业提升数据处理和查询分析的效率。目前,VeDI相关数据产品已启动邀测。
2月25日消息,豆神教育在互动平台表示,公司与字节跳动未有直接合作,但公司的学伴机器人搭载了字节跳动旗下火山引擎技术平台的RTC技术与豆包大模型,以上技术模型的接入可以帮助提升学伴机器人的语音交互效果、提升用户体验,但对公司经营基本面无重大影响。
6月28日消息,今日,字节跳动火山翻译团队宣布推出LightSeq训练加速引擎,并向全球开发者开源。这是业界首款完整支持Transformer模型全流程加速的训练引擎,最快提速能达到3倍以上。也就是说,以前需要1个月的时间来训练一个超大模型,现在用了这个训练加速,只需要10天左右,生产效率大幅提升,而成本也节省下来。