今年,Meta计划在其数据中心部署新的自主设计的人工智能(AI)处理器,路透社报道。这些新的系统级芯片被命名为Artemis,旨在支持Meta在其平台和设备上大举推出AI产品。同时,它们将减少Meta对Nvidia GPU的依赖,并控制成本。
Meta的一位发言人对路透社确认了部署公司自有芯片的计划,并表示:“我们看到,我们内部开发的加速器与市面上可用的GPU高度互补,能够在Meta特定工作负载上提供最佳的性能和效率组合。”
Meta的Artemis处理器专为运行推理工作负载而设计,这类工作负载在Meta的平台(如Facebook、Instagram和WhatsApp)以及Ray-Ban智能眼镜等设备上越来越多地被使用。部署Artemis处理器不仅将释放Nvidia流行的H100处理器用于AI训练,还将帮助优化Meta数据中心的功耗,从而减轻运行AI工作负载所关联的高昂成本。同时,Artemis是Meta的第二款AI处理器,但是第一款将商业部署的处理器。
根据SemiAnalysis创始人Dylan Patel的说法,Meta转向使用其定制芯片可能会带来巨大的节省,有可能每年减少数亿美元的能源费用,并通过减少对第三方芯片的购买,节省数十亿美元。其他超大规模计算服务提供商,如亚马逊Web服务、谷歌和微软,也在开发和部署自己的AI和通用处理器,以减少硬件成本和功耗。
Meta的野心不止于Artemis和推理加速。据报道,该公司正在开发一款更为复杂的处理器,能够运行AI训练工作负载,就像Nvidia的H100 GPU一样。
Meta一直在紧急扩展其计算资源,以满足生成式AI产品的需求,投资数十亿美元收集专用处理器,并为这些工作负载定制其数据中心。总体而言,开发内部硅系列产品的举措旨在减少Meta对Nvidia处理器的依赖。然而,Meta并没有计划完全摒弃其数据中心中的Nvidia GPU。本月早些时候,Meta的首席执行官马克·扎克伯格表示,到2024年底,其数据中心将拥有350,000个H100 GPU。