谷歌月Tokens消耗量领跑全球了:1300000000000000(别数了是千万亿)
1300000000000000!
1.3 千万亿,一个令人咂舌的数字。这就是谷歌每月处理的 Tokens 用量。
据谷歌"宣传委员" Logan Kilpatrick 透露,这一数据来自谷歌对旗下各平台的内部统计。

假如参考 DeepSeek API 文档中给出的标准:
1 个英文字符 ≈ 0.3 个 Token
1 个中文字符 ≈ 0.6 个 Token
那么在中文世界里,1.3 千万亿 Tokens 约 2.17 千万亿汉字。换算成对话量,一本《红楼梦》的字数在 70-80 万左右,相当于一个月内所有人和谷歌 AI 聊了近 30 亿本《红楼梦》的内容。

更可怕的是,假如按照谷歌最近几个月的增速来看,这个数字再往下恐怕……
5 月份,月均处理 480 万亿个;
7 月份,月均处理 980 万亿个;
10 月份,月均处理 1.3 千万亿个。
而且需要注意的是,不止谷歌看重" Tokens 消耗量"这一指标,OpenAI 最近也首次公布了 30 家 Tokens 消耗破万亿的"大金主"。

所以,为什么这个指标重要?它背后又意味着什么?
咱们接着看——
今年已连续暴涨,扛起千万亿大旗
以谷歌为例,它在这个指标上取得的最新成绩无疑是谷歌 AI 实力的具象化体现。
根据谷歌 CEO 皮猜在今年 I/O 大会上公布的一张图,一年前谷歌月均处理的 Tokens 数量才 9.7 万亿,如今却已突破千万亿级大关。

并且,从大会结束到现在,根据 Logan Kilpatrick(真实身份为谷歌 AI Studio 负责人)提供的内部数据,谷歌每月处理的 Tokens 用量还在连续暴涨,且暂未看到任何放缓迹象。

单看谷歌可能没感觉,那横向对比来看看呢?
根据艾伦 AI 研究所研究员 Nathan Lambert 撰写的一篇博客,目前国内外主要大厂的 Tokens 用量如下:
先说微软。根据微软今年公布的三季度财报,CEO 纳德拉曾表示:
本季度我们处理了超过 100 万亿个 Tokens,同比增长 5 倍,其中仅上个月就创下了 50 万亿个 Tokens 的记录。
据此分析,微软的 Tokens 处理能力还远够不上千万亿级别。而且你别忘了,微软早期就与 OpenAI 有过合作(负责托管 OpenAI 模型),起步比谷歌更早。
而现在,谷歌却在这一指标上将微软甩在了身后。
此外,像 OpenAI、国内的字节跳动、百度等公司,文章指出目前这些公司均达到了日均万亿 Tokens的处理量级。
不过这里要插一句,在刚刚过去的开发者日上,OpenAI 公布其 API 调用量为每分钟 60 亿 Tokens,这串数字换算成月度总量是 260 万亿 Tokens。
当然这还只是 API 的部分,如果加上 Tokens 消耗量更大的 ChatGPT 订阅业务,这一数字还会更大,但具体是多少目前则缺少官方数据。
整体而言,仅按公开可查的确切数据来看,谷歌在"千万亿"这一级确实是独一档的存在。

当然,Tokens 用量还只是谷歌 AI 实力的冰山一隅。
几乎同一时间,谷歌云还公布了一组最新数据,里面除了提到 1.3 千万亿这个数字,还表示:
超过 1300 万开发者使用谷歌模型进行开发;
Gemini 模型目前已生成 2.3 亿个视频和 130 亿张图像;
使用谷歌 AI 概览的用户达到 20 亿;
65% 的客户已经在使用谷歌的 AI 产品。

Anyway,即使抛开数据不谈,想必大家也对谷歌 AI 今年的崛起之势感受颇为明显。
别的不说,传说中的 Gemini 3 应该快了(坊间传闻原计划于 10 月 9 日上线,截至发稿前未正式官宣)。

Tokens 消耗量已成新的竞争指标
说完谷歌,最后回到" Tokens 消耗量"这个指标本身。
为什么要看 Tokens 消耗量?
实际上,Token 作为单位能衡量的东西很多,包括预训练语料规模、上下文长度、推理长度……甚至是商业价值。
模型预训练用了多少 Token 语料,代表了它的基础知识储备含量。
模型能够理解多少 Token 的输入和输出,反映了它的理解能力。
此外,Token 还是大模型推理算力的计量单位。比如底层芯片厂商如今都会通过"每秒生成 Token 的数量"来证明自家产品的硬件能力。甚至如果有的模型参数未公开,也能通过它的 Token 生成速度来倒推模型规模(在相同硬件上即可推算)。
当然更重要的是,Token 也成为大模型 API 的定价单位。一旦使用平台的 Token 数量越多,厂商能够获得的商业价值以及行业影响力自然也越多。
值得一提的是,今年年初,行业围绕 Tokens 消耗量还诞生了一条新的价值红线——不看融资估值独角兽,看 10 亿 Tokens 日均消耗。
作为"入门级"检验标准,10 亿 Tokens 日均消耗背后意味着:
第一,它代表大模型应用落地新趋势,企业拥抱大模型红利,要朝着这一数字前进。
第二,它成为大模型应用落地新阶段的门槛,AI 业务真正跑通了吗?需求真实存在吗?都可以此为参考系找回答。
第三,日均 10 亿 Tokens 消耗也只是大模型落地"入门级水准",单客户百万亿、千万亿 Tokens 消耗是更值得期待的星辰大海。
而如今,远超日均 10 亿 Tokens 消耗,谷歌已经为所有玩家树立了新的标杆。
不知道下一个"千万亿玩家"又会是谁呢?
参考链接:
[ 1 ] https://x.com/OfficialLoganK/status/1976359039581012127
[ 2 ] https://x.com/GoogleCloudTech/status/1976333515772809266
[ 3 ] https://x.com/demishassabis/status/1948579654790774931
[ 4 ] https://www.interconnects.ai/p/people-use-ai-more-than-you-think?hide_intro_popup=true
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
� � 年度科技风向标「2025 人工智能年度榜单」评选报名开启啦!我们正在寻找 AI+ 时代领航者 点击了解详情
❤️� � 企业、产品、人物 3 大维度,共设立了 5 类奖项,欢迎企业报名参与 � �
一键关注 � � 点亮星标
科技前沿进展每日见
热点资讯/a>
- 请记住 MiniMax M1:MiniMax 用自己的方法追
- 完善资本市场司法规则纲领性文件出炉!两部门发布指导意见优化市
- 量子威胁已至, 如何通过混合模式实现平稳过渡?
- 中方制裁美国军火商, 特朗普反提一个要求, 沙利文承认一个事
- 火眼云被曝严重隐私侵权!金沙江联合资本、阿米巴资本等参与投资
