在AI行业中,Anthropic公司率先发布了其聊天机器人Claude的系统提示,涵盖了Claude 3 Opus、Claude 3.5 Sonnet和Claude 3.5 Haiku等模型。这些提示引导着AI模型该如何回复用户,规定了其回复的基调和禁忌内容。
最新的系统提示(2023年7月12日发布)明确指出,三种模型均不得:打开URL链接或视频;识别或命名图片中的任何人类;以及在回复中使用诸如“当然”或“绝对”等填充词。
Claude 3.5 Sonnet的知识库更新于4月,而Claude 3 Opus和Claude 3.5 Haiku则在2023年8月进行了更新,这意味着这些模型可以使用各自更新日期前后的数据来回答问题。
如果模型无法回答某个问题,因为相关信息难以在互联网上找到,它们不会道歉,而是会警告用户,尽管它们会尽量提供准确的回答,但也可能会出现“幻觉”信息。
目前,其他AI公司(如OpenAI、Google、Meta和Mistral)都没有公开其系统提示,原因可能是出于竞争考虑,或是为了防止黑客利用提示注入来绕过模型的限制。许多人认为,Anthropic此举是为了展示自己更透明和更具伦理责任感,这可能会引发其他公司跟进。