最近在一次由Lex Fridman主持的访谈中,Anthropic的首席执行官达里奥·阿莫代(Dario Amodei)谈到了人工通用智能(AGI)的快速发展。他预测,AGI可能会在2026至2027年间问世,而内部数据甚至显示这个时间点可能来得更早。不同于OpenAI追求“第一个达成”的目标,Anthropic更加关注安全性,尤其是在强大AI系统带来生存威胁的背景下。这些威胁包括AI被滥用于网络攻击或生物武器等灾难性事件,以及日益复杂的AI系统逐渐超出人类控制的风险。
阿莫代还详细介绍了AI安全等级(ASL)的概念。当前行业处于ASL-2阶段,预计到2025年将进入ASL-3阶段——这是一个关键点,AI模型可能会显著增强恶意行为者的能力。
Anthropic的研发策略建立在AI类似生物系统进化的理解上,这种方式带来了诸多发现,例如大型语言模型中出现的“特朗普神经元”现象。随着技术进步的加速,预计AI模型在2025年将从“高中水平”进化到接近人类的能力。阿莫代强调,到2025年底出台有意义的AI监管措施将是关键,以有效降低相关风险。