据《华尔街日报》报道,OpenAI开发了一种工具,可能会抓住那些通过ChatGPT写作业作弊的学生。但公司内部正在讨论是否要真正发布这一工具。 在给TechCrunch的声明中,OpenAI的一位发言人确认,公司正在研究《华尔街日报》所描述的文本水印方法,但由于“涉及的复杂性及其对OpenAI以外更广泛生态系统的潜在影响”,公司正在采取“慎重的态度”。 “我们正在开发的文本水印方法在技术上很有前景,但在研究替代方案时,我们正在权衡重要的风险,包括被不良行为者规避的可能性,以及对非英语使用者等群体的潜在不成比例影响,”这位发言人说。 这种方法与之前大多数检测AI生成文本的努力不同,后者大多无效。OpenAI自己去年就关闭了其之前的AI文本检测器,因为其“准确率低”。 通过文本水印,OpenAI将专注于检测ChatGPT生成的文本,而不是其他公司的模型。该方法通过改变ChatGPT选择词语的方式,实质上在写作中创建一个看不见的水印,稍后可以通过一个单独的工具检测到。 在《华尔街日报》故事发布后,OpenAI还更新了五月份关于检测AI生成内容的研究博客文章。更新中指出,文本水印在“高度准确,甚至对本地篡改(如改写)有效”,但对“全球篡改(如使用翻译系统、用另一生成模型重写,或要求模型在每个单词之间插入特殊字符然后删除该字符)”的抗性较差。 因此,OpenAI写道,这种方法“对于不良行为者来说很容易规避。”OpenAI的更新还呼应了发言人的观点,认为文本水印可能会“污名化AI作为非母语英语使用者的有用写作工具。”
GitHub推出全新AI模型平台:简化开发者体验
GitHub推出GitHub Models:开启开发者AI新时代 从家用计算机时代开始,开发者的主要创造方式一直是通过代码构建、定制和部署软件。如今,在AI时代,一种同样重要的创造方式正在迅速崛起:利用机器学习模型。越来越多的开发者正在构建生成式AI应用程序,包含后端和前端代码以及一个或多个模型。然而,仍有大量开发者难以轻松访问开放和封闭的模型。今天,这一切将有所改变。 GitHub正式推出GitHub Models,使其超过1亿的开发者能够成为AI工程师,并使用行业领先的AI模型进行构建。从Llama 3.1到GPT-4o和GPT-4o mini,再到Phi 3或Mistral Large 2,开发者可以通过内置的playground免费访问每个模型,测试不同的提示和模型参数。如果对playground中的表现感到满意,GitHub已经创建了一个滑行路径,让模型可以轻松移植到Codespaces和VS Code中的开发环境中。而一旦准备好投产,Azure AI提供内置的负责任AI、企业级安全与数据隐私,以及在超过25个Azure区域中为某些模型提供预配置的吞吐量和可用性。开发和运行AI应用程序从未如此简单。 GitHub Models playground中的乐趣对于大多数人来说,学习成为开发者并不是在教室里按部就班完成的,而是通过实践、尝试和实验来实现的。今天,对于AI模型来说也是如此。在新的互动模型playground中,学生、爱好者、初创公司等可以只需几次点击和击键,就能探索来自Meta、Mistral、Azure OpenAI服务、微软等最受欢迎的私有和开放模型。实验、比较、测试并部署AI应用程序,就在你管理源代码的地方。 与GitHub和微软一贯的隐私和安全承诺保持一致,GitHub Models中的提示或输出不会与模型提供商共享,也不会用于训练或改进模型。 测试和比较不同模型每个软件都是独一无二的。同样,每个模型在能力、性能和成本上也各有特点。Mistral提供低延迟,而GPT-4o在构建可能需要实时处理音频、视觉和文本的多模态应用程序方面表现出色。一些高级场景可能需要集成不同的模式,如用于检索增强生成(RAG)的嵌入模型。 通过这套模型,开发者将拥有所有需要的选项,以保持工作流程,更多地实验并更快地学习。而这仅仅是第一波。在未来几个月,随着GitHub Models的普遍可用性,我们将继续在平台上添加更多语言、视觉和其他模型。 在Codespaces中实现你的创意乐趣不仅仅停留在playground。借助Codespaces的强大功能,我们为你创建了一条零摩擦路径,让你在将模型推理代码引入自己的项目之前进行实验。准备好各种语言和框架的示例代码,你可以尝试各种场景,而不会遇到“仅在我的机器上有效”的问题。 然后,一旦准备就绪,你可以轻松地在你的项目中运行这些内容。利用从playground和Codespaces中获得的知识,在自己的应用程序中建立原型或概念验证。在GitHub Actions中运行提示评估,只需将一系列JSON文件管道到GitHub CLI中的GitHub Models命令中。或者你可以利用GitHub Models构建一个GitHub Copilot扩展,扩展GitHub的平台生态系统,覆盖软件开发的每一个阶段。最后,通过用Azure订阅和凭据替换你的GitHub个人访问令牌,投产到Azure AI。 作为AI初创公司创始人和开源维护者,GitHub Models使我的团队能够在一个地方访问和实验各种LLM。这简化了我们的开发,降低了构建AI应用程序的入门门槛。 ——Anand Chowdhary // FirstQuadrant联合创始人 AI时代的创作者网络从通过开源协作创建AI,到利用AI的力量创建软件,再到通过GitHub Models推动AI工程师的崛起——GitHub是AI时代的创作者网络。 通往人工通用智能(AGI)的道路离不开GitHub上互联社区的源代码和协作。仅在去年,就有超过10万个生成式AI项目在GitHub上创建。 GitHub Copilot正在从根本上改变软件生产的速度,在启用的文件中,几乎一半的代码由它编写。我们设想一个世界,在这个世界中,数百万初学者、爱好者和专业开发者都可以用纯人类语言编写代码。 现在,借助GitHub Models,超过1亿开发者可以在他们已经管理源代码、问题、拉取请求、工作流程和存储库的地方访问和实验新的AI模型——直接在GitHub上。 在未来几年中,我们将继续普及AI技术的访问,激发10亿开发者的热潮。通过这样做,我们将使世界人口的10%能够构建和推进突破性技术,加速全人类的进步。
微软与OpenAI关系升温:从合作伙伴到竞争对手的转变
本周二,微软在最新的年度报告中将人工智能初创公司OpenAI列入竞争对手名单。这份名单多年来一直包括亚马逊、苹果、谷歌和Meta等巨头。 微软与OpenAI有长期合作关系,作为其独家云提供商,并在产品中使用其AI模型,为商业客户和消费者服务。微软是OpenAI最大的投资者,据报道已向该公司注资130亿美元。 但此次新列入竞争对手名单表明两家公司开始进入彼此的领域。 在文件中,微软将OpenAI——ChatGPT聊天机器人的创建者——认定为AI产品和搜索及新闻广告领域的竞争对手。上周,OpenAI宣布了一个名为SearchGPT的搜索引擎原型。 一些公司选择支付费用以访问OpenAI的模型,另一些则通过微软的Azure OpenAI服务获取这些模型。对于那些寻求ChatGPT替代品的公司,微软的Copilot聊天机器人也可以通过Bing搜索引擎和Windows操作系统获得。 OpenAI的一位发言人告诉CNBC,两家公司之间的关系没有任何变化,他们的合作伙伴关系是以相互竞争为前提建立的。发言人表示,微软仍然是OpenAI的好伙伴。 尽管如此,这一年充满了戏剧性。 据报道,微软CEO萨提亚·纳德拉在11月OpenAI董事会推翻CEO Sam Altman之前没有被告知。Altman迅速复职后,OpenAI给予微软一个无投票权的董事会席位。微软本月早些时候放弃了这一职位。 今年3月,纳德拉聘请了DeepMind联合创始人穆斯塔法·苏莱曼。DeepMind是一家在OpenAI之前成立的AI研究公司,2014年被谷歌收购。苏莱曼联合创办并领导了初创公司Inflection AI,被任命为微软AI新部门的CEO,几名Inflection的员工也加入了他。 纳德拉仍与Altman关系密切。 “我喜欢Sam的一点是,他每天都打电话给我说,‘我需要更多,我需要更多,我需要更多,’”纳德拉在接受《纽约时报》采访时说道。
Google Gemini 1.5 Pro登顶Chatbot竞技场:多语言和技术任务表现卓越
Chatbot竞技场传来激动人心的消息! @GoogleDeepMind的新款Gemini 1.5 Pro(实验版0801)在过去一周内进行了测试,获得了超过12,000次社区投票。首次,Google Gemini成功登顶,超越了GPT-4o和Claude-3.5,以惊人的1300分位居榜首,并在视觉排行榜上也名列第一。 Gemini 1.5 Pro(0801)在多语言任务方面表现出色,并在数学、复杂提示和编程等技术领域表现强劲。 恭喜@GoogleDeepMind取得这一显著成就! Gemini(0801)类别排名: 快来体验这个模型. Gemini 1.5 Pro(实验版0801)在视觉排行榜上排名第一。 Gemini显示出强大的多语言能力:中文、日文、德文、俄文表现排名第一。 但在编程和复杂提示领域,Claude 3.5 Sonnet、GPT-4o和Llama 405B仍然领先。 总体胜率热图:Gemini 1.5 Pro(0801)对阵GPT-4o的胜率为54%,对阵Claude-3.5-Sonnet的胜率为59%。
欧盟推出《AI法案》:新规严控高风险AI应用
🔑 重点内容: 今年3月,欧盟宣布正在制定新的风险导向立法——《AI法案》,以规范在欧盟开发、使用和应用AI系统,确保其安全可信。欧洲委员会在5月通过了该法案,现已正式生效。 该立法采用“风险导向”方法,对“高风险”AI(如关键基础设施和生物识别系统)实施严格监管,而“低风险”AI(如聊天机器人)则监管较少。 新法案禁止使用生物识别数据(如种族和性取向)预测犯罪的AI系统,以及用于认知行为操控和社会评分的AI系统。 欧盟给科技公司3-6个月的时间遵守新规,否则将面临潜在罚款,金额从810万美元(或全球年营业额的1%)到3800万美元(或全球年营业额的7%)不等。 🤔 为什么值得关注:尽管此新法规旨在保护欧盟及其公民,但它将对全球科技公司产生重大影响,特别是在美国。大多数先进的AI系统来自美国公司(如苹果、OpenAI、谷歌和Meta),其中Meta和苹果已经因“欧洲监管环境的不确定性”而推迟了在欧盟推出其AI系统的计划。
英特尔大裁员:15,000员工受影响,削减支出计划启动
英特尔在周四的一份员工备忘录中宣布,将裁员超过15%,即15,000名员工。这次大规模裁员是为了在2025年之前削减100亿美元支出的计划的一部分,此前公司的第二季度财报和前景都很惨淡。 CEO帕特·基辛格在备忘录中表示:“我们的收入没有达到预期——我们尚未充分受益于像AI这样的强劲趋势。我们的成本过高,利润率太低。我们需要采取更大胆的行动来解决这两个问题——特别是在考虑到我们2024年下半年的财务业绩和前景比之前预期的更加严峻。” 基辛格描述,英特尔在利用AI热潮方面一直不如其他硬件公司,如Nvidia。英特尔大约25年前引领了科技行业的CPU芯片革命,但在接受智能手机和AI等新一波计算技术方面行动迟缓。基辛格表示,尽管在2020年至2023年间,英特尔的员工增长了10%,但年收入却下降了240亿美元。与此形成鲜明对比的是,其他芯片制造商在AI热潮中收入和估值都飙升至惊人的高度。 英特尔报告称,与去年同期相比,第二季度收入下降了1%。公司将损失归因于与其AI PC产品相关的毛利率压力。公司还将从2024年第四季度开始暂停股东分红,并预计下半年的趋势将比之前预期的更具挑战性。 除了裁员之外,英特尔将在下周为员工提供“自愿离职”计划申请,根据备忘录,公司还将为符合条件的员工宣布一项全公司的增强退休计划。
TikTok每月2千万美元的AI支出:微软的风险
据匿名消息来源透露,TikTok通过微软购买OpenAI模型,每月花费2000万美元,截至今年三月。这个数字占微软AI收入的约25%。 这对微软来说是个风险。TikTok的母公司字节跳动正努力开发自己的AI模型。据《The Verge》去年12月报道,字节跳动甚至在利用OpenAI的技术实现这一目标。如果成功,TikTok将不再需要OpenAI,也不再需要微软。 这种困境在快速发展的人工智能领域并不新鲜。Nvidia也面临类似风险。这家AI芯片制造商的业务高度集中在巨头科技公司中,但这些客户,包括微软在内,已经在使用Nvidia的硬件开发自己的AI芯片。这让投资者和分析师担心,最终,Nvidia的一些客户将不再需要其产品。 希望对微软来说,字节跳动开发AI模型的过程会比较慢。就在昨天,微软在第四季度财报中公布的AI云销售未能达到分析师的高预期。周三收盘后,微软股价下跌了6%。周四早盘,股价略有回升,约为418美元。 其他被报道通过微软购买OpenAI模型的大客户包括AT&T、可口可乐、富达、沃尔沃和沃尔玛。其他OpenAI企业客户,如Zoom、Klarna和Salesforce,则直接从这家AI初创公司购买软件。
更小、更安全、更透明:Google发布的Gemma推动负责任AI的进步
在六月,Google推出了全新的Gemma 2,这款顶级的开源模型拥有270亿(27B)和90亿(9B)参数。自发布以来,27B模型迅速成为LMSYS Chatbot Arena排行榜上的高分选手,甚至在真实对话中超越了许多比它大两倍的流行模型。 但Gemma不仅仅是为了性能。它的基础是负责任的AI,优先考虑安全性和可访问性。为了支持这一承诺,Google隆重宣布三个新的Gemma 2系列成员: 有了这些新增功能,研究人员和开发人员现在可以创建更安全的客户体验,深入了解模型,并自信地在设备上负责任地部署强大的AI,开启创新的新可能性。 Gemma 2 2B: 下一代性能体验,现已上线 Google很高兴介绍备受期待的Gemma 2家族新成员——Gemma 2 2B模型。这个轻量级模型通过从更大模型中学习,产生了出色的效果。实际上,Gemma 2 2B在Chatbot Arena上超越了所有GPT-3.5模型,展示了其卓越的对话AI能力。 图表:LMSYS Chatbot Arena排行榜得分LMSYS Chatbot Arena排行榜得分捕捉于2024年7月30日。Gemma 2 2B得分正负10。 Gemma 2 2B提供了: 从今天起,可以从Kaggle、Hugging Face、Vertex AI Model Garden下载Gemma 2的模型权重,也可以在Google AI Studio中体验其功能。 ShieldGemma:用最先进的安全分类器保护用户 为了确保开放模型能够负责任地部署,确保AI输出具有吸引力、安全和包容性,开发者和研究人员需要付出大量努力。为了帮助开发者实现这一目标,Google推出了ShieldGemma,这是一系列最先进的安全分类器,旨在检测和减轻AI模型输入和输出中的有害内容。ShieldGemma特别针对四个关键领域的危害: 这些开放分类器补充了现有的负责任AI工具包中的安全分类器套件,其中包括使用有限数据点构建特定政策分类器的方法,以及通过API提供的现有Google Cloud现成分类器。 ShieldGemma能够帮助开发更安全、更优质的AI应用: “随着AI的不断成熟,整个行业将需要投资于开发高性能的安全评估器。很高兴看到Google做出了这一投资,并期待他们继续参与我们的AI安全工作组。”~ ML Commons执行董事Rebecca Weiss Gemma Scope:用开放稀疏自编码器揭示AI决策 Gemma Scope为研究人员和开发人员提供了前所未有的透明度,让他们能够深入了解Gemma 2模型的决策过程。像一个强大的显微镜,Gemma Scope使用稀疏自编码器(SAEs)放大模型内的特定点,使其内部工作原理更加可解释。 这些SAEs是专门的神经网络,帮助解读Gemma 2处理的密集复杂信息,将其扩展为更易于分析和理解的形式。通过研究这些扩展视图,研究人员可以获得宝贵的见解,了解Gemma 2如何识别模式、处理信息并最终做出预测。通过Gemma Scope,Google旨在帮助AI研究社区发现如何构建更可理解、负责和可靠的AI系统。…
OpenAI开始为ChatGPT Plus用户进行新AI语音功能的Alpha测试
OpenAI已经开始为ChatGPT Plus用户进行“高级语音模式”的Alpha测试。这个功能旨在促进更流畅和自然的对话,允许用户随时打断AI。此次推出将逐步进行,最初通过电子邮件和应用内通知向部分用户开放,计划在秋季进行更广泛的发布。 该语音功能由GPT-4o提供支持,并已在45种语言中进行了测试,参与测试的外部团队超过100个。为了确保隐私,该模式使用了四种预设语音,并设有安全措施以防止偏离和不当内容的产生。 这个功能的引入经历了一些延迟,原计划于六月发布,但由于安全问题和其语音与女演员斯嘉丽·约翰逊相似而引发争议。此次测试阶段获得的见解将有助于优化语音功能,并解决初次宣布时出现的各种问题。
OpenAI发布实验性GPT-4o Long Output模型,输出容量提升16倍
OpenAI正面临资金短缺的传闻,但这并未阻止这家领先的生成式人工智能公司继续发布一系列新模型和更新。昨天,OpenAI悄悄地发布了一个网页,宣布推出一款新的大语言模型(LLM):GPT-4o Long Output。这是五月推出的GPT-4o模型的变体,但输出大小大幅增加:从最初的4,000个tokens扩展到64,000个tokens,增加了16倍。 为了回应客户对更长输出上下文的需求,OpenAI决定引入这种扩展的输出功能。一位OpenAI发言人向VentureBeat解释说:“我们听到了客户希望有更长输出上下文的反馈。我们一直在测试如何最好地服务于客户的需求。”Alpha测试阶段预计将持续几周,OpenAI将收集数据以评估扩展输出是否有效满足用户需求。 GPT-4o Long Output模型在处理要求详细和广泛输出的应用中具有特别的优势,如代码编辑和写作改进。通过提供更长的输出,GPT-4o模型可以提供更全面和细致的响应,从而显著提升这些用例的效果。 GPT-4o模型自发布以来,已经提供了最大128,000的上下文窗口——即模型在一次交互中可以处理的tokens总量,包括输入和输出tokens。对于GPT-4o Long Output,这一最大上下文窗口保持在128,000。但是,OpenAI能够将输出tokens从4,000增加到64,000,而总的上下文窗口仍保持在128,000。 这种扩展输出的能力让用户或开发者可以选择:是优先更长的LLM响应,还是保持更多的输入tokens。在所有情况下,用户或开发者都必须做出选择或权衡:他们是否愿意牺牲一些输入tokens来换取更长的输出?对于希望获得更长答案的用户,GPT-4o Long Output现在提供了这一选项。 新的GPT-4o Long Output模型的定价如下: 相比之下,常规GPT-4o的定价为每100万个输入tokens 5美元和每100万个输出tokens 15美元,而新的GPT-4o mini为每100万个输入tokens 0.15美元和每100万个输出tokens 0.60美元。可以看出,GPT-4o Long Output的定价相当激进,继续了OpenAI最近的主张,即希望使强大的AI对广大开发者用户群体变得负担得起且易于访问。 目前,这一实验性模型的访问权限仅限于少数可信的合作伙伴。发言人补充道:“我们正在与少量可信的合作伙伴进行几周的alpha测试,以查看更长的输出是否有助于他们的用例。”根据这一测试阶段的结果,OpenAI可能会考虑向更广泛的客户群体开放这一功能。 正在进行的alpha测试将提供有关扩展输出模型的实际应用和潜在好处的宝贵见解。如果初始合作伙伴的反馈积极,OpenAI可能会考虑更广泛地开放这一功能,使更多用户能够受益于增强的输出能力。显然,OpenAI希望通过GPT-4o Long Output模型,解决更多客户需求,并支持需要详细响应的应用。