华尔街日报发文解析,为什么人工智能领域支出的增长呈上升趋势。文章认为,尽管投资者曾短暂犹豫,但现在,大型科技公司、政府和风险投资人正以前所未有的速度将资金注入AI领域。要理解这一现象,我们需要深入了解人工智能技术本身的演变。
从大语言模型到推理模型
传统的大语言模型需要大量的电力和计算时间进行训练。然而,人们正在迅速找到方法,以减少在用户运行大语言模型时所需的资源量。推理模型则不同,它们基于大语言模型,但在实际运行中消耗的资源(包括芯片和电力)要多得多。
自OpenAI在9月发布其首个推理模型o1以来,AI公司纷纷推出竞争产品。其中包括今年初震撼AI界,以及众多科技和电力公司估值的DeepSeek R1,还有埃隆·马斯克的xAI刚刚推出的Grok 3推理模型。
DeepSeek之所以引起恐慌,是因为它展示了一种可能性,即以其他模型成本的一小部分来训练AI模型。这可能会减少对数据中心和昂贵、先进的芯片的需求。但实际上,DeepSeek推动了AI行业去发展资源需求量更大的推理模型,这意味着计算基础设施仍然非常必要。
推理模型的资源需求
推理模型及其相关产品(如“Deep research”工具和AI agent)为何需要如此多的资源?答案在于它们的工作方式。
Nvidia的AI产品管理副总裁Kari Briski最近表示,AI推理模型可以轻松使用超过传统大语言模型100倍的计算资源。这种倍增来自于推理模型在长时间“思维链”中与自己对话(并非所有对话用户都能看到)。模型使用的计算资源与生成的单词数量成正比,因此生成100倍单词的推理模型将使用更多的电力和资源。
当推理模型访问互联网时,资源需求会进一步增加,如谷歌、OpenAI和Perplexity的Deep research模型。
这个数量的算力需求仅仅是开始。谷歌、微软和Meta计划在2025年共同支出至少2150亿美元用于资本支出,其中大部分用于AI数据中心。这将比去年增加45%的资本支出。
科技巨头们的季度资本支出
未来AI有多大需求?
为了预测未来AI的需求量,我们可以列出一个简单的等式。等式中的第一个值,是在像ChatGPT这种大模型的内部,处理单个信息标记所需的计算资源量。
1月,随着中国AI模型DeepSeek R1的发布,每个标记的成本(包括算力资源和金钱)似乎会大幅下降。DeepSeek及其相关论文展示了一种方法,可以比美国AI实验室先前披露的方法更高效的方式训练和交付AI。
表面上看,这似乎表明AI未来对计算能力的需求将仅为当前的一小部分,比如十分之一甚至更少。但推理模型在回答用户提问时需求量的增加可能会弥补这一点。简单来说,如果基于DeepSeek见解的更高效AI模型,将对计算能力的需求减少到十分之一,但如果推理模型成为标准,并使对这些模型的需求增加100倍,那么未来AI对算力的需求仍将是现在的10倍。
1000倍增长
这只是起点。随着企业发现新AI模型更强大,它们越来越多地调用这些模型。这将计算能力的需求从训练模型转向使用模型,即AI行业中的“推理”。
Baseten的CEO Tuhin Srivastava表示,这种向推理的转变已经在进行中。他的客户包括在应用程序和服务中使用AI的科技公司,如Descript和PicnicHealth。这些客户发现,随着对自身产品需求的快速增长,他们需要更多的AI处理能力。
未来几年,技术创新和更先进AI芯片的出现可能意味着,向客户提供AI的系统会比今天高效一千倍。风险投资家Tomasz Tunguz表示,投资者和大型科技公司在赌,未来十年中,由于推理模型和AI的迅速普及,对AI模型的需求可能会增加一万亿倍或更多。
“你键盘上的每一次按键,或你对着麦克风说的每一个音素,都将由至少一个AI转录或处理,”Tunguz说。如果真是这样,他补充道,AI市场可能很快会比今天大1000倍。