据报道,谷歌DeepMind近日为其最新顶级Gemini模型推出了一项新功能:开发者可通过一个“拨盘”调节模型在响应过程中投入多少“思考”时间。该功能虽表面上旨在帮助开发者节省运行成本,但也间接承认了一个行业性问题——推理模型正成为AI领域的热门趋势,却也容易陷入“过度思考”的困境,从而导致不必要的计算资源浪费。
自2019年以来,增强AI模型能力的传统路径主要有两条:一是扩大训练数据量、增大模型规模,二是通过更优的反馈信号优化答案质量。然而,自2024年底开始,谷歌DeepMind及其他科技公司纷纷开始尝试第三种方法:推理能力的强化。
DeepMind首席研究科学家Jack Rae表示,团队一直在致力于“推动模型‘思考’能力的发展”。这一策略在今年初的DeepSeek-R1模型发布后快速走红。对AI公司而言,这种方法具有重要吸引力——只需训练现有模型以更务实的方式处理问题,即可增强模型能力,而无需从头打造新模型。
但与此同时,这种“思考能力”的增强也带来了实实在在的计算与经济成本。当前推理模型的排行榜显示,完成某些任务一次可能花费高达200美元。尽管成本高昂,但其优势在于能更好地处理诸如代码分析或多文档信息提取等复杂任务。
DeepMind技术主管Koray Kavukcuoglu指出,模型“在不同假设与思路上反复迭代的次数越多,就越有可能找到正确答案”。但这并非在所有任务中都适用。Gemini产品团队负责人Tulsee Doshi指出:“在简单任务中,模型思考的确远超所需。”她特指的是此次发布的Gemini Flash 2.5模型,该模型配备了可调整的推理滑块,允许开发者减少其“思考”量。
推理过度不仅提高了模型运行成本,也显著增加了AI的能源消耗与碳足迹。Hugging Face的工程师Nathan Habib研究了推理模型的快速扩散现象,他指出,当前业界对推理模型的使用已然泛滥。为了追求更聪明的AI,不少企业甚至在无需推理的场景中也强行“上锤”,即便根本没有“钉子”存在。
OpenAI在今年2月宣布,其新推出的模型将是最后一款非推理模型,进一步表明行业正在全面转向推理范式。Habib表示,虽然推理在某些任务中带来“不可否认”的性能提升,但在大多数普通用户使用AI的场景中,这些收益并不明显。
即使应用得当,推理机制也可能“崩溃”。Habib展示了一个推理模型在解答有机化学题时的失败案例:模型起初正常推理,但中途开始不断输出“Wait, but …”(等等,但是……)达数百次,最终耗时远超非推理模型。DeepMind模型评估人员Kate Olszewska也承认,谷歌模型有时会陷入“思维循环”。
因此,谷歌开发的“推理拨盘”旨在缓解这一问题。目前该功能仅面向开发者版本,允许他们设置模型在单个任务中可使用的计算预算。推理模式开启时,模型输出的成本约为非推理状态的六倍。
该功能的另一重要意义在于,当前尚不清楚哪些任务真正需要大量推理。DeepMind的Jack Rae坦言:“现在要明确界定哪些任务真正适合‘思考’,其实很难。”
尽管如此,一些任务已被明确归为适合高推理配置的范畴,例如代码生成(开发者可能会粘贴上百行代码请求帮助)与专家级研究报告撰写等。这些任务对推理能力要求较高,开发者可能愿意为更高质量输出承担更高成本。然而,谷歌仍需依赖开发者的反馈,确定中低推理等级在更多场景中是否“足够好”。
Habib认为,推理模型投资潮的兴起,正标志着AI研发范式的根本转变:“扩展规模的法则正在被推理逻辑取代。”
AI企业如今不再一味追求更大的模型,而是寄望通过更长时间的“思考”来获得更优结果。据估计,过去几年中,AI公司在模型推理(即生成答案的实时调用)方面的开销已远超训练开销,而这一趋势在推理模型普及后将进一步加剧。推理环节也正成为AI碳排放的主要来源之一。
尽管许多模型使用“推理”或“思考”等具有人类意味的词语,Jack Rae也指出,其实这些术语的使用更多是为了便于理解。他表示:“这让我们能用一个简单的词描述复杂过程,同时人们也更容易理解其含义。”Kavukcuoglu补充称,谷歌并非试图模拟人类认知过程,而是专注于模型行为的功能性实现。
即使推理模型目前风头正劲,谷歌DeepMind也并非唯一参与者。DeepSeek在去年12月至今年1月发布结果后,其“开权重”策略震撼市场,甚至引发了近1万亿美元的股市波动。所谓“开权重”即公开模型的内部参数设置,使开发者可自行部署,而无需依赖谷歌或OpenAI的付费API访问。(需注意,“开源”则指包括训练数据在内的全面公开。)
面对DeepSeek等开权重模型的强势表现,为何开发者仍愿意选择谷歌的专有模型?Kavukcuoglu解释称,在代码、数学与金融等高精度场景中,模型需展现极强的准确性与逻辑处理能力,无论是开源还是专有,只要能胜任这些任务的模型,终将脱颖而出。
DeepMind坚信,推理能力将构建未来AI的核心。他总结道:“推理是通向智能的关键能力。一旦模型开始‘思考’,它的自主性就启动了。”