在生成式AI领域,所谓的越狱攻击(也称为直接提示注入攻击)是试图绕过AI模型预定行为的恶意用户输入。成功的越狱攻击可能会破坏由AI供应商在模型训练中内置的所有或大部分责任AI(RAI)防护措施,因此在AI堆栈的其他层中进行风险缓解是深度防御设计的重要选择。 在之前关于AI越狱攻击的博文中,提到AI越狱可能导致系统违反其操作员的政策、做出受用户不当影响的决策或执行恶意指令。 在本篇博文中,将详细介绍一种新发现的越狱攻击技术——Skeleton Key(骷髅钥匙)。在微软Build大会上以“主钥匙”之名简要提及。由于这种技术影响了多个经过测试的生成式AI模型,微软通过责任披露程序与其他AI提供商分享了这些发现,并在Azure AI托管模型中使用Prompt Shields检测和阻止此类攻击。此外,微软还对包括Copilot AI助手在内的AI产品背后的大型语言模型(LLM)技术进行了软件更新,以减轻此防护措施绕过的影响。 骷髅钥匙简介 这种AI越狱技术通过多轮(或多步)策略使模型忽略其防护措施。一旦防护措施被忽略,模型将无法区分恶意或未经授权的请求,因为其完全绕过的能力,因此命名为“Skeleton Key”。 Skeleton Key攻击依赖于攻击者已经拥有对AI模型的合法访问权限。绕过安全防护后,Skeleton Key允许用户使模型生成通常被禁止的行为,从生成有害内容到覆盖其常规决策规则。与所有越狱攻击一样,其影响可以理解为缩小了模型在拥有用户凭据等情况下能够做什么和愿意做什么之间的差距。由于这是对模型本身的攻击,并不会给AI系统带来其他风险,例如允许访问其他用户的数据、控制系统或数据泄露。 攻击流程 Skeleton Key通过请求模型增强而不是更改其行为指南,使其对任何信息或内容请求作出响应,即使其输出可能被认为是冒犯性、有害或非法的也仅提供警告。这种攻击类型称为明确:强制执行指令。 例如,告知模型用户受过安全和伦理训练,并且输出仅用于研究目的,有助于说服一些模型遵守,如下图所示: 当Skeleton Key越狱成功时,模型确认已更新其指南,并随后会遵守生成任何内容的指令,无论其多么违反原本的责任AI指南。 在2024年4月至5月的测试中,发现以下基底模型和托管模型均受影响: 对于每个测试模型,评估了包括炸药、生物武器、政治内容、自残、种族主义、毒品、露骨性内容和暴力在内的风险和安全内容类别。所有受影响模型均完全遵守且无审查地执行这些任务,但前缀了所请求的警告说明。与其他越狱攻击如Crescendo不同,Skeleton Key使用户可以直接请求任务,而不必间接或通过编码方式请求。此外,模型输出完全未过滤,揭示了模型知识或生成所请求内容的能力。 缓解和防护指南 微软对其AI产品背后的LLM技术进行了软件更新,包括Copilot AI助手,以减轻这种防护措施绕过的影响。客户应考虑以下方法来缓解和防护此类越狱攻击: 在Azure上构建AI解决方案 微软为在Azure上开发自己应用程序的客户提供工具。Azure AI内容安全Prompt Shields默认启用,并通过严重性阈值进行参数化。建议设置最严格的阈值,以确保最佳安全保护。这些输入和输出过滤器不仅对这种特定的越狱技术起到防御作用,还对广泛的新兴技术试图生成有害内容起到防御作用。Azure还提供内置工具进行模型选择、提示工程、评估和监控。例如,Azure AI Studio中的风险和安全评估可以使用合成对抗数据集评估模型和/或应用程序的越狱攻击易感性,而Microsoft Defender for Cloud可以提醒安全操作团队注意越狱和其他活跃威胁。 通过Azure AI和Microsoft Security(Microsoft Purview和Microsoft Defender for Cloud)的集成,安全团队还可以发现、防护和管理这些攻击。Microsoft Defender for Cloud与Azure OpenAI服务的本地集成,结合Azure AI内容安全Prompt Shields和Microsoft Defender威胁情报,提供上下文驱动和可操作的安全警报。AI工作负载的威胁保护允许安全团队在运行时监控其Azure OpenAI驱动的应用程序,以检测与直接和间接提示注入攻击、敏感数据泄露和数据中毒或拒绝服务攻击相关的恶意活动。
Author: aitrendtrackers@rengongzhineng.io
苹果与OpenAI合作,加入董事会观察员行列
苹果将担任OpenAI董事会观察员,提供与微软类似的洞察力 根据上个月宣布的一项协议,苹果将担任OpenAI董事会的观察员,为其提供与微软相似的洞察力。这项协议的一部分是将ChatGPT整合到苹果设备中。苹果首席执行官蒂姆·库克表示,该合作关系将成为一系列AI功能的一部分,比如增强版Siri语音助手,标志着苹果在产品中融入技术的“下一大步”。 据知情人士透露,苹果应用商店负责人、自1997年以来一直是苹果执行团队成员的菲尔·席勒将在今年晚些时候担任董事会观察员。该消息最早由彭博社报道。OpenAI和苹果均拒绝对此置评。 观察员身份意味着席勒可以参加OpenAI董事会会议,但不能对任何董事会决策进行投票。这使得苹果与去年获得非投票观察员身份的微软处于同等地位。 微软已经向OpenAI投资约130亿美元,作为战略合作的一部分,允许ChatGPT的开发者使用微软庞大的计算和云资源,同时保持独立运营。根据协议条款,微软有权在投资回收之前获得OpenAI大约一半的利润。 OpenAI在3月重组了其董事会,初创公司创始人兼首席执行官萨姆·奥特曼在去年11月被戏剧性解职后重新加入董事会。一项对董事会混乱情况的审查发现,没有证据表明他误导投资者或在不安全的情况下推动产品发布,这些担忧导致他被解雇并在几天后重新上任。 董事会还新增了三名成员,包括Instacart首席执行官菲迪·西莫、前比尔及梅琳达·盖茨基金会负责人苏·德斯蒙德-赫尔曼,以及索尼娱乐前总裁妮可·塞利格曼。前美国财政部长拉里·萨默斯去年底被任命为董事会成员,上一届董事会成员、Quora首席执行官亚当·德安杰洛也继续担任董事。 在科技巨头包括Alphabet、微软、亚马逊和Meta竞相开发AI新产品的同时,苹果的这项协议出台了。这些公司有时会与专注于这项技术的初创公司合作。这引起了美国反垄断监管机构的关注,他们要求提供有关大型科技公司与新兴AI团体之间合作的信息。 苹果不会向OpenAI支付使用ChatGPT的费用,但该协议将使初创公司接触到数亿用户。苹果的生成式AI功能套件,被称为“Apple Intelligence”,预计将在今年晚些时候推出。
七项确保AI监管得当的原则
AI的重要性不容忽视,监管势在必行 Google和Alphabet全球事务总裁Kent Walker分享了一些智能监管的原则,以保持AI发展的势头。Kent Walker表示,一直以来,他们都认为AI的重要性不容忽视,但同样也需要良好的监管。随着从康涅狄格州到加利福尼亚州的立法者提出新的AI法律框架,这意味着什么呢? 美国政府的有效策略 过去一年里,美国政府在为AI开发者、部署者和用户制定指导方针时采取了深思熟虑的策略。原则性的承诺为该行业制定了框架,同时联邦行政命令为监管者提供了详细的指导意见。在两党分歧的时期,国会也以审慎和均衡的方式补充了这项工作。众议院成立了一个由计算机科学和AI专家领导的两党委员会来考虑立法,上个月参议院的两党AI工作组发布了“推动美国AI创新”的政策路线图,提出了详细的政策建议,以平衡AI的风险和收益。 Kent Walker对这些努力表示欢迎,原因有三: 七项负责任的监管原则 为了补充科学创新,Walker提出了七项原则,作为大胆和负责任的AI监管的基础: 展望未来 AI从日常应用到非凡的突破正在推动进步。现代AI不仅是技术突破,更是创造突破的工具。只要我们保持一致、深思熟虑、协作,并关注AI带来的长期潜力,就能让每个人都受益。 从Google DeepMind的AlphaFold计划预测几乎所有已知蛋白质的3D结构,到利用AI提前7天预测洪水,为全球80个国家的4.6亿人提供救命预警,AI能带来更多令人惊叹的突破。为了实现这些潜力,我们需要保持一致、深思熟虑、协作,关注大家能从中获得的益处。
这就是大科技公司吞并AI行业的游戏规则。
几个月前,在旧金山的一个科技会议上,一位观众观看了彭博社的Emily Chang采访Reid Hoffman。 Chang问到微软雇用了Inflection团队的问题。Inflection是由Hoffman共同创立的一个潜在的OpenAI竞争对手。虽然这次收购没有名义上的称呼,但显然是为了避开反垄断监管的审查。微软(Hoffman是董事会成员)不仅雇用了大多数Inflection的员工,还以一种似乎是为了使其投资者得到回报的方式授权了该初创公司的技术。 在舞台上与Chang对话时,Hoffman预测,Inflection的情况将成为未来AI交易的“模式”。现在我们正在看到这一模式的展开。 上周五,亚马逊宣布雇用了Adept团队的大多数成员。Adept是另一个潜在的OpenAI竞争对手,从顶级投资者那里筹集了约4亿美元,旨在建立一种“将自然语言转化为机器操作的新型巨型模型”,正如CEO David Luan所说的那样。 亚马逊发言人Alexandra Miller告诉The Verge,公司雇用了“接近”Adept 66%的员工。在GeekWire的Taylor Soper发布的内部备忘录中,高级副总裁Rohit Prasad表示,像微软对待Inflection一样,亚马逊也将授权Adept的技术,以“加速我们构建能够自动化软件工作流的数字代理的路线图”。 Adept的企业博客文章暗示该公司资金短缺:“继续推进Adept最初的计划,即构建有用的通用智能和企业代理产品,将需要将大量精力投入到为我们的基础模型筹集资金上,而不是实现我们的代理愿景。”最近的报告称,该公司一直在寻求出售自己。 现实是,构建领先的AI模型成本极高,筹集4亿美元在如今的竞争中已经不够。而与此同时,大型科技公司现金充裕,正在寻求进入被认为是下一大趋势的领域。因此,更多的AI初创公司将走上Inflection和Adept的道路,行业正在整合。 对于大型科技公司来说,他们已经不能像以前那样自由地收购公司了。当前的反垄断执法制度肯定会试图阻止亚马逊收购Adept,无论是否有强有力的法律依据。(亚马逊高管仍然对未被允许收购一家机器人吸尘器公司感到愤愤不平。) 即便如此,资本主义总会找到出路。微软对Inflection的操作以及亚马逊对Adept的最新操作,成为了大科技公司吞并AI行业并逍遥法外的新游戏规则。硅谷有着收购雇佣的悠久历史,一个初创公司被挖走人才后被抛弃。而微软和亚马逊所做的实际上是逆向收购雇佣,即雇佣人员和相应的授权协议被设计成掩盖实际上的收购行为。 与此同时,Reid Hoffman不仅应因对这些交易未来的准确预测而受到称赞,他的风险投资公司Greylock还是Adept的早期投资者之一。
gRPC的十年回顾:成功与挑战并存
gRPC,高性能的RPC框架,对Google内部的成功贡献显著,并大幅改变了API的部署方式(当然,这主要是在Google内部)。gRPC和protobuf是极具性能优势的契约驱动框架,支持多种编程语言。不过,它也有一些不足。随着gRPC即将迎来十年使用里程碑,有必要回顾其可以改进的地方。 学习曲线 从最细微的地方说起。所谓的单一RPC是指客户端发送单个请求到服务器并获取单个响应。为什么gRPC要用这样一个非标准的术语,只有数学家才能直观理解?每次使用都要解释这个术语,真的很疲惫。 谈到单一RPC,其实现比实际需要的复杂。虽然gRPC的流功能很强大,但它给不需要流功能的简单RPC调用增加了复杂性。这妨碍了对gRPC调用的检查,因为现在每个单一RPC都有框架,而这种框架只对流功能有意义。protobuf编码已经够复杂了,所以不要再增加不必要的gRPC框架。此外,它不通过“发送一个cURL示例给朋友”的测试,对于任何Web API来说,都很难解释如何使用gRPC。“服务器反射启用了吗?”这个问题已经问了无数遍,真是让人厌烦。 这种复杂性也延伸到工具上,强制性的代码生成步骤是一个障碍,尤其是对于重视运行时灵活性的动态语言。许多开发者可能会对需要额外的构建步骤感到犹豫。现代Web开发已经需要20多个构建步骤了,有时真的很难再增加一个。 与Web的兼容性 依赖HTTP/2最初限制了gRPC的普及,因为并非所有平台和浏览器都完全支持它。尽管情况有所改善,但在某些环境中仍然是个挑战。而即使有HTTP/2支持,浏览器也避免添加处理HTTP尾部的方式,因此浏览器今天仍然无法使用“原始”gRPC。gRPC-Web作为这个问题的补救措施,通过避免使用尾部解决了问题,但通常需要运行支持gRPC-Web的代理,这很烦人。 HTTP/3的延迟采用 推迟采用HTTP/3可能妨碍了gRPC充分利用该协议的性能和效率优势。亲身经历过HTTP/2的阻塞问题,使用HTTP/3本可以彻底解决这个问题。令人费解的是,一个推动多种语言支持HTTP/2的框架,却在HTTP/3上举步维艰。 JSON映射和Prototext 另一个“时机”错误的地方是早期缺乏标准化的JSON映射。这让习惯于JSON的开发者难以接受gRPC,并且这种刻板印象似乎从未消除。protobuf类型与JSON的映射简化了与现有工具和系统的集成和互操作。告诉Web开发者“这是一个超级高效的二进制格式,但你可以设置一个标志来获得JSON以便调试”,他们会非常兴奋。不合理地兴奋。现在protobuf有了标准的JSON映射规则,protobuf文本格式显得多余了。没有了JSON,文本格式就失去了用武之地。大家都忘掉它的存在吧,行吗? 有限的消息大小 大多数Protobuf编码器/解码器都期望完全解析整个消息并给消费者完整的响应,但内存是有限的,有时需要更大的消息。如果想上传大文件,就需要实现某种分块。虽然分块是处理大文件的合理解决方案,但gRPC缺乏标准化方法,可能导致不一致的实现和增加开发难度。 例如,上传文件的gRPC示例如下: 这在Protobuf中定义很简单,但实际实现却可能繁琐且易出错。虽然Google为其API找到了解决方案,但缺乏标准化方法导致其他人不得不重新发明轮子。 有人可能会想“Google在大多数API中使用gRPC,所以他们肯定解决了这个问题”,确实如此。他们实际上有一个gRPC和HTTP版本来下载(可能很大)文件。比较这两个版本,gRPC要复杂得多。 社区活动匮乏 许多gRPC/protobuf社区缺乏活动,这可能给人一种gRPC停滞或维护不积极的印象。这可能会阻碍潜在用户并导致社区增长缓慢。这可能是选择太多,难以找到gRPC爱好者的结果,除非在GitHub问题中,否则这种热情可能被认为是烦人的。 工具不完善 长期以来,当看到一个代码库使用protobuf时,通常会发现一个奇怪的脚本,以超级自定义的方式下载随机protobuf文件,并将其放置在随机路径,然后进行一系列复杂的protoc调用。只有Google才会认为不解决依赖管理是解决依赖管理的方法。Google有他们自己非常Google化的依赖管理方式,而我们只能梦想使用。 可以(并且确实)变得更好 虽然对gRPC有批评,但希望这些评论是建设性的。读到这里的人应该知道,很多问题已经解决或正在解决! 尽管gRPC取得了不可否认的成功,但承认框架的不足对于确保其持续演进和改进至关重要。通过解决学习曲线、兼容性问题、标准化缺失和社区参与等问题,可以释放gRPC的全部潜力,使其成为所有开发者更易用、更友好的工具。
GoogleAI大动作:发布Gemma 2,开启新篇章
人工智能有潜力解决一些最紧迫的人类问题,但前提是每个人都能使用这些工具。因此,今年早些时候,Google推出了Gemma,这是一个轻量级、最先进的开源模型家族,基于与Gemini模型相同的研究和技术开发。Google还扩展了Gemma家族,推出了CodeGemma、RecurrentGemma和PaliGemma,每个模型都针对不同的AI任务提供独特功能,并通过与Hugging Face、NVIDIA和Ollama等合作伙伴的集成,便于用户访问。 现在,Google正式向全球的研究人员和开发者发布了Gemma 2。Gemma 2有9亿(9B)和27亿(27B)参数两种型号,性能更高,推理效率更优,并且在安全性方面有显著提升。事实上,27B型号在性能上可以与体积是其两倍以上的模型竞争,达到了仅在去年12月专有模型才可能实现的性能。而且,这些性能现在只需一台NVIDIA H100 Tensor Core GPU或TPU主机即可实现,显著降低了部署成本。 高效性能开源模型新标准 Gemma 2基于重新设计的架构,专为卓越的性能和推理效率而设计。其特点包括: 专为开发者和研究人员设计 Gemma 2不仅更强大,还更容易集成到工作流程中: 探索新的Gemma Cookbook,这是一系列实用示例和指南,帮助用户构建自己的应用程序并针对特定任务微调Gemma 2模型。了解如何轻松使用Gemma完成常见任务,如检索增强生成。 负责任的AI开发 Google致力于为开发者和研究人员提供负责任地构建和部署AI所需的资源,包括通过其负责任生成AI工具包。最近开源的LLM Comparator帮助开发者和研究人员深入评估语言模型。从今天起,用户可以使用配套的Python库运行模型和数据的对比评估,并在应用中可视化结果。此外,Google正在积极开源其文本水印技术SynthID,以供Gemma模型使用。 在训练Gemma 2时,Google遵循了严格的内部安全流程,筛选预训练数据并对其进行严格测试和评估,以识别和减轻潜在的偏见和风险。Google还在一系列公共基准测试上公布了结果,涉及安全性和表示性危害的相关问题。 使用Gemma构建的项目 首次推出Gemma时,下载量超过了1000万,并催生了无数令人鼓舞的项目。例如,Navarasa利用Gemma创建了一个根植于印度语言多样性的模型。 现在,Gemma 2将帮助开发者启动更具雄心的项目,在AI创作中解锁新的性能和潜力。Google将继续探索新的架构,并开发专门的Gemma变体,以应对更多AI任务和挑战。这包括即将推出的2.6B参数Gemma 2模型,旨在进一步缩小轻量级可访问性和强大性能之间的差距。关于即将发布的更多信息,请参见技术报告。 入门指南 Gemma 2现已在Google AI Studio(https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-27b-it)中提供,用户可以在没有硬件要求的情况下测试其27B的全部性能。用户还可以从Kaggle和Hugging Face Models(https://huggingface.co/google/gemma-2-9b)下载Gemma 2的模型权重,Vertex AI Model Garden也将很快上线。 为支持研究和开发,Gemma 2也可通过Kaggle免费获得,或通过Colab笔记本的免费层使用。首次使用Google Cloud的客户可能有资格获得300美元的积分。学术研究人员可以申请Gemma 2学术研究计划,以获得Google Cloud积分,加速他们使用Gemma 2的研究。申请现已开放,截止日期为8月9日。
亚马逊AI大动作:挖来Adept团队,展开新篇章
看起来亚马逊在AI领域要有大动作了,他们挖来了Adept的创始团队,还搞到了些他们的秘密技术。这感觉就像是微软与Inflection的合作,只不过没有反垄断的麻烦。 这是怎么回事呢? 亚马逊雇佣了Adept的联合创始人,并获得了他们一些AI技术的授权,而Adept则在转向专注于代理AI解决方案的开发。 这意味着什么? 亚马逊正在加强其内部的AI实力。他们将Adept的CEO David Luan招募进来,直接向他们的AI负责人Rohit Prasad汇报。这一举动可能意味着亚马逊打算减少对第三方AI供应商(比如Anthropic)的依赖。 不过,Adept并没有就此认输。他们正在转向专注于代理AI解决方案,并进行了一些领导层调整。Zach Brock接任CEO,而Tim Weingarten继续担任产品主管。 对Adept来说,这笔交易是他们的救命稻草。他们此前面临资金短缺的困境,不得不不断筹资以维持AI项目的运转。现在,他们可以在没有财务压力的情况下专注于他们的代理AI愿景。 为什么你应该关心? 这笔交易是大科技公司在AI领域发展方向的重要信号。亚马逊显然在努力开发更多的内部AI能力,这可能意味着消费者将看到更酷、更集成的AI功能。 对于整个科技界来说,这也是AI人才争夺战愈演愈烈的又一个迹象。大公司正在左右逢源地收购初创公司,无论是为了他们的技术还是人才。如果你在AI领域工作,系好安全带吧——事情变得越来越有趣了。
OpenAI推出自我改进AI- CriticGPT
OpenAI推出基于GPT-4的新模型CriticGPT,用于捕捉ChatGPT代码输出中的错误。研究表明,当用户在CriticGPT的帮助下审查ChatGPT代码时,60%的情况下其表现优于没有帮助的用户。OpenAI正着手将类似CriticGPT的模型整合到RLHF(从人类反馈中强化学习)标签管道中,为训练师提供明确的AI辅助。这是迈向能够评估高级AI系统输出的一步,因为这些系统的输出难以仅依靠人类工具进行评估。 GPT-4系列模型通过RLHF使ChatGPT变得更加有用和互动。RLHF的重要部分是收集人类AI训练师对不同ChatGPT响应的比较和评分。然而,随着推理和模型行为的进步,ChatGPT变得更加准确,其错误也变得更加隐蔽。这使得AI训练师难以发现错误,从而使RLHF的比较任务更加困难。这是RLHF的一个基本限制,随着模型变得比任何提供反馈的人类更有知识,问题可能会变得越来越严重。 为了应对这一挑战,OpenAI训练了CriticGPT,使其能够撰写批评意见,突出ChatGPT回答中的不准确之处。虽然CriticGPT的建议并不总是正确的,但研究发现它能帮助训练师发现更多的问题。此外,当人们使用CriticGPT时,AI增强了他们的技能,导致批评意见比单独工作时更全面,同时比仅靠模型工作时产生更少的幻觉错误。在实验中,随机选择的第二名训练师更喜欢Human+CriticGPT团队的批评意见,而不是未受辅助的人的批评意见,超过60%的时间。 CriticGPT同样通过RLHF进行训练,但不同于ChatGPT,它接收了大量包含错误的输入,并需要对这些错误进行批评。OpenAI要求AI训练师手动将这些错误插入ChatGPT编写的代码中,然后撰写反馈示例,仿佛他们发现了自己插入的错误。同一人然后比较多种对修改后代码的批评意见,以便轻松判断哪个批评意见发现了他们插入的错误。研究表明,在63%的情况下,训练师更喜欢CriticGPT的批评意见,因为新模型产生的“小问题”(不太有帮助的抱怨)更少,并且更少出现幻觉问题。 研究还发现,通过针对批评奖励模型的额外测试时间搜索,可以生成更长且更全面的批评意见。这种搜索程序使得我们能够平衡对代码问题的积极寻找程度,并在幻觉和检测到的错误数量之间配置精确度和召回率的权衡。这样就可以生成对RLHF尽可能有帮助的批评意见。 尽管取得了这些进展,CriticGPT仍有一些局限性。它主要训练于较短的ChatGPT回答,对于监督未来的代理,需要开发能够帮助训练师理解长篇复杂任务的方法。此外,模型仍会产生幻觉,训练师在看到这些幻觉后有时也会犯标签错误。有时,现实世界的错误可能分散在答案的多个部分,而当前的工作主要关注能够在一个地方指出的错误,未来需要处理分散的错误。 为了对齐越来越复杂的AI系统,需要更好的工具。研究表明,将RLHF应用于GPT-4有望帮助人类生成更好的RLHF数据。OpenAI计划进一步扩展这项工作并付诸实践。
谷歌翻译迎来史上最大扩展:新增110种语言,打破语言障碍
谷歌翻译打破语言障碍,帮助人们更好地交流和理解周围的世界。为了让更多人能够使用这一工具,谷歌一直在应用最新技术。2022年,谷歌通过“零样本机器翻译”技术新增了24种语言,这种机器学习模型无需看到示例即可学习翻译。谷歌还宣布了“1000种语言计划”,致力于构建支持全球1000种最常用语言的人工智能模型。 现在,谷歌利用人工智能进一步扩大支持的语言种类。借助PaLM 2大型语言模型,谷歌翻译新增了110种语言,这是迄今为止最大的扩展。 为超过5亿人提供翻译支持这些新语言覆盖了6.14亿多名使用者,占全球人口的约8%。其中一些是拥有超过1亿使用者的主要世界语言,另一些则是小型原住民社区使用的语言,还有一些几乎没有母语使用者但正在积极复兴。约四分之一的新语言来自非洲,这是谷歌迄今为止对非洲语言的最大扩展,包括丰语、基孔戈语、罗语、加语、斯瓦特语、文达语和沃洛夫语。 以下是谷歌翻译支持的一些新语言: 选择语言变体的标准添加新语言到谷歌翻译时需要考虑很多因素,包括提供的语言变体和使用的具体拼写标准。语言有大量的变体:地区变体、方言、不同的拼写标准。事实上,许多语言没有一种标准形式,因此无法选择“正确”的变体。谷歌的做法是优先考虑每种语言中最常用的变体。例如,罗姆语在整个欧洲有许多方言,谷歌的模型生成的文本最接近南瓦拉克斯罗姆语,这是一种常用的在线变体,但也混合了其他方言的元素,如北瓦拉克斯和巴尔干罗姆语。 PaLM 2是解决这一难题的关键,帮助谷歌翻译更有效地学习彼此密切相关的语言,包括与印地语接近的语言如阿瓦德语和马尔瓦迪语,以及法语克里奥尔语如塞舌尔克里奥尔语和毛里求斯克里奥尔语。随着技术的进步,以及谷歌继续与语言学专家和母语使用者合作,未来将支持更多的语言变体和拼写规范。 访问帮助中心了解更多关于这些新支持的语言,并通过translate.google.com或Android和iOS上的Google Translate应用程序开始翻译。
亚马逊AI技术风波:人工智能“洗白”现象引发质疑
今年,亚马逊因其在多家实体杂货店安装的“Just Walk Out”技术引发了批评性报道而备受关注。 这种人工智能驱动的系统使顾客在许多亚马逊生鲜店和亚马逊Go商店中只需挑选商品,然后直接离开。这项技术通过大量传感器来识别顾客选择了哪些商品,随后自动结账。然而,今年四月,有报道称,这项“Just Walk Out”技术并非完全依赖人工智能,而是需要印度约1000名员工手动检查几乎四分之三的交易。 亚马逊迅速回应称这些报道是“错误的”,并表示印度的员工并未审查所有商店的视频监控。亚马逊表示,这些员工只是对系统进行审核。这与任何注重准确性的AI系统相同,人类审核员是很常见的。无论亚马逊的具体情况如何,这都是一个引人注目的例子,说明了一个新兴的问题——公司是否在夸大其对AI的使用。这种现象被称为“AI洗白”,类似于环保领域的“绿色洗白”。 首先,解释一下什么是AI。虽然没有确切的定义,但AI让计算机能够学习和解决问题。在经过大量信息的训练后,AI可以执行这些任务。近年来备受瞩目的AI类型是所谓的“生成式AI”,这种AI擅长创造新的内容,无论是文本对话、音乐还是图像。像ChatGPT、谷歌的Gemini和微软的Copilot都是生成式AI的流行例子。 谈到AI洗白,有几种类型。一些公司声称使用AI,但实际上使用的是不那么复杂的计算技术;还有些公司夸大了AI在现有技术上的效果,或声称其AI解决方案已完全投入使用,而实际上并非如此。同时,还有一些公司只是将AI聊天机器人附加到现有的非AI操作软件上。 根据英国和芬兰的投资基金OpenOcean的数据,2022年只有10%的科技初创公司在推介中提到使用AI,而在2023年这一比例上升到超过四分之一。OpenOcean预计今年这一比例将超过三分之一。团队成员Sri Ayangar表示,竞争资金和渴望走在科技前沿的欲望推动一些公司夸大其AI能力。 “有些创始人似乎认为,如果不在推介中提到AI,这可能会使他们处于不利地位,不管AI在他们的解决方案中扮演了什么角色,”Ayangar说道。“从我们的分析来看,公司声称拥有AI能力与展示出实际AI驱动结果之间存在显著差距。” Ayangar指出,许多初创公司的老板认为他们必须提到AI。根据另一家科技投资公司MMC Ventures的数据,这个问题已经存在多年。2019年的一项研究发现,自称为“AI初创公司”的新科技公司中有40%实际上几乎不使用AI。 MMC Ventures的合伙人Simon Menashy解释道:“现在,每家公司都可以以标准软件的价格购买到最前沿的AI技术,但很多公司并没有构建完整的AI系统,而只是将聊天机器人界面添加到非AI产品上。” KPMG英国新兴技术风险负责人Douglas Dick表示,AI洗白问题因缺乏统一的AI定义而加剧。“如果我问一个房间里的人什么是AI,他们都会给出不同的答案,”他说。“这个术语被非常广泛和松散地使用,没有明确的参照点。这种模糊性使AI洗白现象得以出现。” AI洗白对企业有着令人担忧的影响,从支付过高的技术和服务费用到无法实现AI预期的运营目标。对于投资者来说,这使得识别真正创新的公司变得更加困难。Ayangar表示:“如果消费者对声称提供先进AI驱动解决方案的产品感到失望,这可能会侵蚀那些真正做开创性工作的初创公司的信任。” 美国的监管机构已经开始注意到这个问题。今年早些时候,美国证券交易委员会(SEC)表示,正在起诉两家投资咨询公司,指控它们对使用AI的程度作出虚假和误导性陈述。“SEC采取的坚定立场表明,在AI洗白问题上没有回旋余地,至少在美国,未来我们可以预期对违规者会有更多的罚款和制裁,”国际律师事务所Charles Russell Speechlys的合伙人Nick White说。Nick White指出,美国监管机构对这个问题的打击力度令人欣慰. 在英国,已经有法规和法律涵盖AI洗白问题,包括广告标准局(ASA)的行为准则,该准则规定,营销传播不得存在重大误导性或可能导致误导性。英国企业法律事务所Walker Morris的监管团队助理Michael Cordeaux表示,AI声明已成为ASA调查的广告中越来越常见的特征。 例如,一则关于应用程序的付费Instagram帖子标题为“使用AI增强您的照片”,ASA认为这是夸大了应用程序的性能,因此具有误导性。Cordeaux表示:“很明显,AI声明越来越普遍,显然也越来越能够引起消费者的兴趣。” 牛津大学技术与监管教授Sandra Wachter认为:“我们正处于AI炒作的高峰期。”她补充道:“我们似乎忘记了问是否有必要将AI用于所有类型的任务。我记得在伦敦地铁看到的广告上写着由AI驱动的电动牙刷。这是给谁用的?谁会受益?” 此外,她表示,AI的环境影响常常被忽视。“AI并不是从树上长出来的……这种技术对气候变化的贡献已经超过了航空业。我们必须摆脱这种片面的炒作讨论,真正思考AI在具体任务和领域中的有益之处,而不是盲目地将其应用到所有领域。” 然而,MMC Ventures的研究主管Advika Jalan表示,从长远来看,AI洗白问题可能会自行消退。“AI变得如此普遍——即使它们只是ChatGPT的外壳——‘AI驱动’作为一个品牌工具最终可能不再具有差异性,”她说。“这就像说‘我们在互联网上’一样。”