在今天的云计算盛宴上,Snowflake 公司带来了一款名为 Arctic LLM 的“企业级”生成型 AI 模型。这个小家伙不仅完全开源,还特别为处理如数据库代码生成等企业重负荷工作而优化。看起来,Snowflake 是要以此模型作为他们在生成型 AI 领域的一大步。
Snowflake CEO Sridhar Ramaswamy 在新闻发布会上信心满满地表示,Arctic LLM 将是推动公司及其客户构建企业级产品、实现 AI 潜力和价值的基石。看来,他们不仅仅是想做个小试牛刀,而是有志在生成型 AI 大展拳脚。
不仅如此,Snowflake 还大胆宣称,Arctic LLM 在编程和 SQL 生成等任务上,不仅超过了竞争对手 DBRX,甚至在某些方面还超越了 Meta 的 Llama 2 70B。Snowflake 还强调,Arctic LLM 在流行的通用语言理解基准 MMLU 上取得了领先表现,虽然我们知道这些测试有时只是靠死记硬背也能解决。
此外,Arctic LLM 采用了一种叫做“专家混合”(MoE)的架构,将数据处理任务分解为子任务,由更小的专家模型处理。这种设计使得 Arctic LLM 虽然拥有高达 4800 亿个参数,但每次只激活 170 亿个,足以驱动 128 个独立的专家模型,从而在成本上大为节省。

Arctic LLM 不仅会在 Snowflake 自家的 Cortex 平台上首发,还计划在 Hugging Face、Microsoft Azure 等多个平台提供支持。Snowflake 的野心显然不小,希望通过这款模型为企业用户解锁更多价值。

虽然市场上已经有许多可供精细调整的开源生成型模型,Arctic LLM 的特殊架构可能会带来一些效率上的提升。但是否足以使企业用户转向,而放弃其他广为人知、支持良好的商业友好型模型,这还真是个问题。再加上 Arctic LLM 相对较小的上下文窗口,可能会让它在处理长对话时遇到记忆问题,这些都是潜在的挑战。

总之,虽然 Snowflake 对 Arctic LLM 抱有很大期待,但它是否能在激烈的市场竞争中脱颖而出,还有待市场的检验。
下载: https://huggingface.co/Snowflake/snowflake-arctic-instruct?_fsi=0BXBpRto
https://github.com/Snowflake-Labs/snowflake-arctic?_fsi=0BXBpRto