微软最近在其 Azure OpenAI 服务的使用条款中加入了新的措辞,明确禁止美国警察部门通过这一服务使用生成性人工智能进行面部识别。这项政策变动引发了广泛关注,人们对于技术与隐私的边界再次展开了讨论。
在这项服务的条款更新中,微软不仅限制了在美国境内警方使用面部识别技术,还特别提到了全球的执法机构,明确禁止在移动摄像头上使用实时面部识别技术,比如执法人员的随身摄像头和车载摄像头,尤其是在复杂多变的户外环境中尝试识别个人。
此外,这次更新还对可能会影响民权的技术应用提出了警告,尤其是在种族偏见的问题上。批评者指出,即便是最先进的生成性人工智能模型,也存在制造虚假信息(俗称“臆想”)的风险,而且如果训练数据本身存在偏见,那么由此生成的结果可能会加剧种族歧视,这对于颜色人种来说尤其不利,因为他们被警察拦截的几率远高于白人。
尽管微软的新政策在美国实施了完全禁令,但对于国际警察的限制并不是绝对的。条款中留有余地,允许在控制环境中使用固定摄像头进行面部识别,比如办公室内部,这表明微软在面对不断扩展的人工智能应用时,仍在谨慎探索技术的边界。
微软与 OpenAI 的合作关系也在不断深化。据报道,OpenAI 正在与五角大楼合作,开发包括网络安全在内的多项技术。此外,微软还提议使用 OpenAI 的图像生成工具 DALL-E 来帮助美国国防部开发执行军事操作的软件。
总之,微软这一政策的更新反映了科技企业在权衡技术创新与社会责任之间的复杂抉择。随着人工智能技术的不断进步和应用范围的扩大,如何在增强执法效率与保护个人隐私之间找到平衡点,无疑是未来科技发展的一大挑战。