AI 的补贴时代结束了——然后呢?
2026 年 3 月底,Google 做了一件所有人都预料到但没人想到这么快的事:大幅削减 Gemini 免费用户的 Pro 模型访问权限,限制学生...
BenszConan
管理员
文章目录 ⌄
2026 年 3 月底,Google 做了一件所有人都预料到但没人想到这么快的事:大幅削减 Gemini 免费用户的 Pro 模型访问权限,限制学生计划中的高级模型选择,甚至在 250 美元/月的付费计划中也开始收紧配额。YouTube 博主 Theo(t3.gg)在他的视频中系统分析了这件事——他的核心判断是:AI 的补贴时代结束了。
▶ 观看完整视频:AI has a subsidization problem(Theo - t3.gg,37 分钟)
我觉得他说得对。但我想在他分析的基础上,把讨论推得更远一点:补贴结束后,AI 的使用格局会变成什么样?
补贴为什么必须结束
Theo 在视频里拆解了一个非常直观的经济学逻辑。以 Anthropic 的 Claude Max 计划为例:200 美元/月的订阅,实际上可以让用户消耗价值高达 5000 美元的推理算力——这是一个 25 倍的补贴率。Google 的 Gemini 甚至一度以免费的形式发放价值数千美元的推理。
这个模式为什么不可持续?核心问题是token 消耗量的指数级增长完全抵消了 token 单价的下降。
2023 年,一条聊天消息可能只产生 200 个 token。但到了今天,AI 编程助手(如 Claude Code、Cursor、Codex CLI)的工作方式是:把整个代码库塞进上下文窗口,多轮工具调用,推理链(reasoning tokens)可能动辄产生数万甚至数十万 token。一条"简单"的编程指令,背后的成本差距可以高达 400 倍。
更关键的是,免费用户的单位经济模型根本不成立。Theo 用自己的 YouTube 频道数据打了一个非常生动的比方:他每月约 300 万播放量、2 万天观看时长,YouTube 广告收入大约 9000 美元——折合每次播放不到 0.3 美分。而一条 AI 提示的成本可能超过 1 美元。靠广告收入覆盖推理成本,这个数学根本算不过来。
但 Theo 没有展开讲的一个重要判断是:大量免费 token 的获取将不会成为常态,用户最终需要为有价值的 token 支付更多费用。背后的根本经济学原因是:大部分用户目前免费占用的额度,远远超过他们利用这些额度所创造的价值。模型商的让利本质上是一个无底洞——它不是投资,而是消耗。当资本市场开始要求 AI 公司证明盈利能力时,这种消耗就会被无情地叫停。
免费的真正代价
Theo 在视频中提出了一个非常有洞察力的用户分层模型。用户可以按付费意愿排列在一个光谱上:
- "如果免费我就试试" 的用户——这部分人是补贴策略最想捕获的对象
- "如果更好我就付费" 的用户——这是真正的金矿
- "只有免费我才用" 的用户——这是死亡陷阱
Google 通过极度慷慨的免费策略,成功把大量用户吸引到了 Gemini 生态。但问题是,当你的产品不够好时,你捕获的主要是最后一类用户——他们永远不会转化成付费用户,同时消耗大量算力和支持资源。Theo 直言:"$100 的客户会要你所有的时间和注意力,$1000 的客户只会说'看起来不错'"。免费用户往往比付费用户更昂贵。
所以补贴结束不仅是一个成本问题,更是一个用户质量问题。Google 意识到自己不小心把大多数 GPU 算力分配给了永远不会付费的用户,甚至因此影响了自己内部开发者对高级模型的访问。
本地算力:被低估的下一个增长点
在讨论 AI 的未来成本结构时,大多数人聚焦在"云端推理会不会更便宜"。但我认为一个被严重低估的趋势是:本地算力会成为整个 AI 体系的重要组成部分。
原因有三:
第一,日常 AI 任务的 token 消耗模式决定了本地推理的经济合理性。 以我自己为例,我怀疑自己使用 AI 的大部分 token 都花在了 git-commit skill 里——自动生成 commit message、分析代码变更。或者是一些简单的推理任务:文本分类、格式转换、简单的代码补全。这些任务不需要 GPT-5 级别的智能,但它们数量巨大、频率极高。把这些任务从云端卸载到本地,可以释放大量云端 token 预算给真正需要高级推理能力的任务。
第二,专用推理硬件的价格正在逼近拐点。 类似 Mac Mini 之类的个人设备,或者未来可能出现的专为本地推理设计的个人硬件,其年度运营成本(硬件折旧 + 电力)正在接近甚至低于一个重度用户每年在云端 token 上的花费。一旦这个交叉点到来——即一年的普通需求 token 费用超过运营本地推理硬件的成本——理性用户就会开始向本地迁移。
第三,模型能力与硬件能力正在双向奔赴。 一方面,像 GLM-5 级别智能的模型正在被优化到可以在消费级硬件上运行;另一方面,AI 模型技术本身在发展——量化、蒸馏、稀疏化——使得同等智能水平需要的算力持续下降。当一台合理的个人设备能够流畅运行足够聪明的模型时,本地推理就不再是一个妥协方案,而是一个理性选择。
这三条趋势线交汇的结果是:本地算力会大幅缓解目前的 token 压力。AI 的成本结构将从"全部依赖云端"转向"本地处理日常任务 + 云端处理高价值任务"的混合模式。
补贴结束后的 AI 生态
当补贴时代正式落幕,我预期 AI 生态会发生几个结构性变化:
定价分层会更加激进。 模型商需要找到"用大量轻度用户的低使用率补贴少量重度用户的高使用率"的平衡点。$20/月的入门级订阅可能只会提供"足够好但不是最好"的模型访问,而真正的旗舰模型会越来越贵。Anthropic 的 Claude Max 和 OpenAI 的 ChatGPT Pro 已经在展示这个趋势。
中间层产品的生存空间会被挤压。 像 Cursor 这样的第三方工具,本质上是模型商和终端用户之间的中间人。当模型商(Anthropic、OpenAI)自己推出了 Claude Code、Codex 这样的直接产品,并且有强烈动机把用户锁定在自己的生态中时,中间层的谈判力会持续下降。Theo 在视频中提到了 Anthropic 甚至动用律师来阻止第三方工具加载 Claude Max 插件——这已经是非常明确的信号。
用户会更加精打细算。 当"无限使用"的幻觉破灭后,用户会开始认真思考:哪些任务值得花云端 token,哪些可以在本地完成。这种理性回归对整个生态其实是好事——它会推动模型商在性价比上竞争,而不是在补贴力度上竞争。
写在最后
Theo 的视频标题是"AI has a subsidization problem"——AI 有一个补贴问题。但更准确地说,AI 有一个免费午餐终将结束的问题。
对个人用户而言,我的建议是:认真评估自己的 token 消耗模式,识别哪些是"高价值消耗",哪些是"习惯性消耗"。对于后者,是时候开始研究本地推理方案了。一台 Mac Mini 的年度成本可能比你想象的更接近你的云端 token 账单。
对行业而言,补贴的结束不是危机,而是正常化的开始。AI 的真正商业模式才刚刚开始被定义——它不会建立在"烧钱换用户"的互联网思维上,而是建立在"智能有价,推理有成本"的基本经济现实上。
评论区
0 条评论