11名来自OpenAI的现任和前任员工以及2名来自Google DeepMind的员工签署了一封公开信——“关于高级人工智能的警告权利”,表达了他们对大科技公司缺乏安全管理和监督的担忧,并呼吁更好地保护那些希望对这些问题发声的举报人。
公开信内容
这封公开信指出,AI公司拥有“与其AI模型相关的能力、限制和风险的大量非公开信息”,其中包括“失控的自主AI系统可能导致人类灭绝”,但这些公司对政府和社会分享信息的义务却很薄弱,同时“有强烈的财务激励”来避免有效的监督措施。
信中还提到,目前对举报人的保护不足,而他们是少数能够让这些大科技公司承担责任的独特角色之一。
“普通的举报人保护不足,因为它们侧重于非法活动,而我们关心的许多风险尚未得到监管。”
公开信要求AI公司承诺四项原则,旨在:
- 不强迫员工签署防止他们批评雇主在风险相关问题上的保密协议。
- 为员工提供匿名向董事会成员和监管机构提出任何担忧的流程。
- 创建“开放批评的文化”。
- 防止对当前和前任员工进行纪律处分或报复,这些员工在其他流程失败后分享了“与风险相关的机密信息”。
公开信的背景
这封信是在OpenAI因强迫员工签署保密协议而遭受抨击后写的,如果员工不签署,他们将失去在公司期间获得的股票。虽然CEO萨姆·阿尔特曼已经道歉,并承诺改变其离职协议,但这一事件仍然引发了广泛关注。
此外,公开信还紧随OpenAI解散其“超级对齐”安全团队之后,当时两名关键成员因安全担忧和缺乏安全优先级而辞职。
OpenAI和Google的回应
OpenAI为其安全实践进行了辩护,声称“为提供最有能力和最安全的AI系统的记录感到自豪”,并同意“继续与各国政府、民间社会和世界各地的其他社区进行接触”。而Google尚未对此事发表评论。