每天,大家都在发现如何利用Gemini提高生产力、创意和好奇心。今天的更新让Gemini在帮助完成任务方面更加出色,以最适合用户的方式助力。 现在,Gemini的免费版本已经可以使用1.5 Flash功能,响应更快更有用。此外,还推出了一个新功能来进一步解决幻觉问题,并扩展了适用于青少年的Gemini体验和移动应用。 更快更智能的1.5 Flash响应许多人喜欢使用Gemini是因为它节省时间。无论是写一封吸引人的邮件还是调试复杂的代码,快速且高质量的响应都非常重要。 今天,免费体验升级为Gemini 1.5 Flash。新版本显著提升了质量和延迟,尤其在推理和图像理解方面表现突出。与之前在高级版本中大幅扩展上下文窗口一样,免费版的上下文窗口也扩展至32K tokens。这意味着可以进行更长时间的对话和提出更复杂的问题,且无需额外费用。 为了充分利用这个更大的上下文窗口,用户很快可以通过Google Drive或设备直接上传文件,这项功能在高级版本中已经可用。这样一来,可以上传经济学学习指南并要求Gemini创建练习题,Gemini还能够分析数据文件,为用户揭示见解并通过图表进行可视化展示。 Gemini 1.5 Flash现已在网络和移动端向所有用户开放,支持40多种语言,覆盖230多个国家和地区。 Gemini响应中的相关内容用户还喜欢将Gemini作为研究伙伴来探索新话题。为此,现在在Gemini中展示与寻求事实相关的提示链接,继续致力于减少幻觉,并更容易探索有助于学习的网站。 从今天起,在某些国家使用英语提示时,可以直接在Gemini响应中访问这些额外的信息。点击段落末尾的芯片即可查看相关主题的网站链接。这不仅限于网站:如果Gemini的响应引用了通过Gmail扩展找到的信息,也会看到相关邮件的内嵌链接。 这项功能建立在减少幻觉的基础上。除了相关内容链接外,Gemini的双重检查功能通过Google搜索验证响应内容,突出显示哪些陈述在网络上得到支持或反驳。对于被反驳的信息,用户可以更深入地验证其真实性。 更多地方的Gemini功能今年早些时候,部分Android设备用户可以在Google Messages中直接与Gemini聊天。今天开始,Gemini将在欧洲经济区(EEA)、英国和瑞士逐步推出,新增法语、波兰语和西班牙语等语言。点击Messages中的“开始聊天”按钮并选择Gemini,即可在不离开Google Messages应用的情况下开始头脑风暴、规划行程等。 此外,Gemini移动应用将在更多国家推出,让世界各地更多人可以随时随地获得Gemini的帮助。 扩展青少年使用的Gemini下周,Gemini将面向全球青少年扩展使用,支持40多种语言。符合管理自己Google账号最低年龄要求的青少年可以使用Gemini更好地理解学校课程、准备大学或完成创意项目。 希望为青少年提供利用生成式AI的机会,帮助他们为未来的AI中心角色做好准备,同时优先考虑安全并满足他们的发展需求。为了帮助青少年自信、安全地使用Gemini,推出了额外的政策和保障措施,制定了针对青少年的入门流程,并包括AI素养指南,帮助他们负责任地使用AI。此外,还与包括MediaSmarts(加拿大)、Miudos Seguros na Net(葡萄牙)和Fad Juventud(西班牙)在内的儿童安全和发展专家合作,继续提供满足青少年和家庭独特需求的专业知识。 Gemini的责任设计Gemini的开发始终以责任和用户安全为指导。随着Gemini的不断发展,分享更多关于其设计和响应方式的信息。现在可以阅读有关Gemini设计的方法及其政策指南的更多细节,以更好地理解如何处理复杂和敏感的话题,包括涉及公共利益问题、政治、宗教或道德信仰的回应。这些指南以AI原则为基础,反映了开发该技术的责任和透明承诺。
OpenAI 宣布推出SearchGPT:一款具实时信息访问能力的AI搜索引擎
OpenAI 宣布其备受期待的搜索市场新产品——SearchGPT,这是一款具备实时访问互联网信息能力的AI驱动搜索引擎。(https://chatgpt.com/search) SearchGPT的搜索框从一个大文本框开始,提示用户输入“您在寻找什么?”与传统的链接列表不同,SearchGPT尝试组织并解读信息。在OpenAI提供的一个示例中,搜索引擎总结了有关音乐节的信息,并呈现简短的活动描述,后面附上来源链接。 另一个示例中,它解释了番茄的种植时间,然后详细介绍了不同品种的番茄。在结果出现后,用户可以提出后续问题或点击侧边栏打开其他相关链接。此外,还有一个称为“视觉答案”的功能,但在截稿前,OpenAI尚未向The Verge详细说明该功能的具体工作方式。 一个SearchGPT查询示例,用户搜索“2024年8月在北卡罗来纳州布恩的音乐节”。模型提供了从网络上实时抓取的信息,包括链接到来源的内容。 目前,SearchGPT只是一个“原型”。该服务由GPT-4家族模型提供支持,启动时仅向10,000名测试用户开放,OpenAI发言人凯拉·伍德告诉The Verge。伍德表示,OpenAI正在与第三方合作伙伴合作,并使用直接内容源来构建其搜索结果。最终目标是将这些搜索功能直接集成到ChatGPT中。 这可能会对Google构成重大威胁。Google急于在其搜索引擎中加入AI功能,担心用户会涌向更早提供这些工具的竞争产品。这也让OpenAI更直接地与创业公司Perplexity竞争,后者自称为AI“答案”引擎。Perplexity最近因其AI摘要功能受到批评,出版商声称其直接抄袭他们的作品。 SearchGPT的“视觉答案”功能展示了OpenAI的Sora在YouTube上的AI生成视频。它还包括一行企鹅及其家庭的单个图像。顶部有一家公司股票的截图,右侧是一个被云遮住的太阳。SearchGPT的“视觉答案”功能展示了OpenAI的Sora在YouTube上的AI生成视频。图片来源:OpenAIOpenAI似乎注意到了这些反对声音,并表示它采取了显著不同的方法。在一篇博客文章中,该公司强调SearchGPT是在与包括《华尔街日报》、美联社和Vox Media等新闻合作伙伴合作开发的。“新闻合作伙伴提供了宝贵的反馈,我们继续寻求他们的意见,”伍德说。 出版商将有一种方式来“管理他们在OpenAI搜索功能中的出现方式,”公司写道。他们可以选择不将其内容用于训练OpenAI的模型,同时仍能在搜索中显示。 “回答有明确的、内联的命名归因和链接,以便用户知道信息来自哪里,并能快速与更多结果互动,这些结果在带有来源链接的侧边栏中。” 以原型形式发布搜索引擎对OpenAI有多重好处。首先,如果SearchGPT的结果严重错误——比如Google推出AI概览时告诉我们把胶水涂在披萨上——可以更容易地解释为“它只是个原型!”也有可能会出错归因或完全抄袭文章,正如Perplexity被指控的那样。 关于这个新产品的传闻已经流传数月,《信息》在2月份报道了其开发情况,随后彭博社在5月份报道了更多消息。我们也报道了OpenAI曾积极挖掘Google员工组建搜索团队。一些X用户还注意到OpenAI正在开发的新网站暗示了这一举动。 OpenAI一直在逐步让ChatGPT与实时网络联系更紧密。GPT-3.5发布时,AI模型已经过时数月。去年9月,OpenAI推出了一种让ChatGPT浏览互联网的方式,称为Browse with Bing,但与SearchGPT相比显得非常初步。 OpenAI的快速进展赢得了ChatGPT数百万用户,但公司的成本也在增加。据《信息》本周报道,OpenAI的AI训练和推理成本今年可能达到70亿美元,免费版本的ChatGPT用户数量不断增加,进一步推高了计算成本。SearchGPT将在初期推出时免费,当前似乎没有广告,这意味着公司需要尽快找到变现方式。
“够大,够强” | Mistral Large 2重磅发布
最新一代继续在成本效益、速度和性能方面突破极限。Mistral Large 2在la Plateforme平台上发布,新增了许多功能,方便构建创新的AI应用。 Mistral Large 2 Mistral Large 2拥有128k的上下文窗口,支持包括法语、德语、西班牙语、意大利语、葡萄牙语、阿拉伯语、印地语、俄语、中文、日语和韩语在内的多种语言,还支持超过80种编程语言,包括Python、Java、C、C++、JavaScript和Bash。 Mistral Large 2专为单节点推理和长上下文应用设计,具备1230亿参数,能够在单节点上实现大吞吐量。Mistral Large 2在Mistral Research License下发布,允许研究和非商业用途的使用和修改。商业用途需获取Mistral Commercial License,通过联系我们获取。 综合性能 Mistral Large 2在性能和成本方面设立了新的标准。特别是在MMLU评估中,预训练版本达到了84.0%的准确率,刷新了开源模型在性能/成本比上的记录。 代码和推理能力 借鉴Codestral 22B和Codestral Mamba的经验,Mistral Large 2在大量代码数据上进行训练,表现远超之前的Mistral Large,并且与领先的模型如GPT-4o、Claude 3 Opus和Llama 3 405B表现相当。 详细基准测试 大量精力也用于提升模型的推理能力,重点减少模型“幻觉”生成错误信息的倾向,通过细致的调整使模型在回应时更加谨慎和可靠。此外,Mistral Large 2能够在无法找到解决方案或没有足够信息时,主动承认这一点。这种对准确性的承诺在数学基准测试中表现得尤为明显,展示了其增强的推理和解决问题的能力。 指令执行和对齐 Mistral Large 2的大幅改进在于其指令执行和对话能力,尤其在精确指令的遵循和长对话处理上表现优异。下图展示了MT-Bench、Wild Bench和Arena Hard基准测试中的表现: 语言多样性 如今,许多商业用例涉及多语言文档处理。虽然大多数模型以英语为主,新版Mistral Large 2在多语言数据上进行了大量训练,特别擅长处理英语、法语、德语、西班牙语、意大利语、葡萄牙语、荷兰语、俄语、中文、日语、韩语、阿拉伯语和印地语。下图展示了Mistral Large 2在多语言MMLU基准测试中的表现,与之前的Mistral Large、Llama 3.1模型和Cohere’s Command R+进行了对比。 工具使用和函数调用…
扎克伯格:人工智能开放源代码有助于全球繁荣与安全
扎克伯格:人工智能开放源代码有助于全球繁荣与安全 Meta首席执行官马克·扎克伯格在一封公开信中表示,重要的是技术不能被少数几家巨头公司(包括他自己的公司)所控制。 长期以来,技术专家们一直在争论公司是应该对其计算机代码保密,还是与全球的软件开发人员共享。这个关于封闭与开放源代码的争论因人工智能的快速发展和对其迅速成为国家安全问题的担忧而变得更加激烈。 在周二的一封公开信中,扎克伯格重申了公司采取的被一些人认为是冒险的立场:开放源代码的人工智能开发将允许技术人员学习强大AI模型的创建方法,并利用这些知识来构建自己的AI程序。 扎克伯格认为,指望少数几家公司能保守其AI技术的秘密是不现实的,尤其是硅谷多年来一直是中国等国家间谍活动的目标。 “我认为政府会得出结论,支持开放源代码符合他们的利益,因为这将使世界更加繁荣和安全,”他在信中表示,并补充说,限制AI研究的分享只会抑制美国的创新。 Meta还发布了最新、最强大的AI算法LLaMA,并为其AI助手Meta AI增加了包括印地语、法语和西班牙语在内的七种新语言支持。 在拜登政府权衡监管AI的应对措施之际,扎克伯格再次呼吁拥抱开放源代码技术。去年,拜登总统发布了一项全面的行政命令,呼吁在AI技术周围建立更多的安全保障措施,包括应对AI驱动的聊天机器人和视频程序传播虚假信息的方法。 四月份,商务部就如何应对人工智能的一系列草案征求反馈意见。 OpenAI、微软和谷歌等公司认为,AI可能是危险的,并且发展如此迅速,应由最了解它的技术人员紧密控制。批评者还表示,在美国开发的AI软件可能会被中国等国家利用,以与美国竞争或潜在地对美国造成伤害。 扎克伯格和一些小型初创公司如Hugging Face的高管们则认为,参与开发的人越多,就越容易发现问题。 “开放源代码将确保世界上更多的人可以获得AI的好处和机会,权力不会集中在少数几家公司手中,技术可以更均匀和安全地在整个社会中部署,”扎克伯格说。 扎克伯格承认,他的动机不仅仅是出于利他主义。使用Meta服务的技术人员越多,其产品在行业内的标准化程度就越高。而且,扎克伯格不希望通过其他公司的产品——主要是苹果和谷歌——来接触客户,这是他多年来一直被迫做的事情。 “我们必须确保始终能够获得最好的技术,而不是被锁定在竞争对手的封闭生态系统中,在那里他们可以限制我们开发的内容,”他在信中补充道。
山姆·阿尔特曼openResearch试验:探索AI基本收入的未来可能性
近几年,向低收入美国人直接发放现金的想法迅速流行起来,美国35个州内已经有超过150个地方试点正在测试这种“基本收入”的理念。其中最大的试点项目并非来自某个城市或县,而是由OpenAI首席执行官兼创始人山姆·阿尔特曼支持的OpenResearch项目发起。 经过三年时间,在伊利诺伊州和德克萨斯州每月向受益者发放1000美元后,该组织发布了三篇研究论文。与之前的许多研究一样,OpenResearch发现受益者主要用于满足基本需求和帮助他人,且并未退出劳动力市场,虽然工作时间略有减少。但研究者最大的发现是现金提供了灵活性。 研究者指出,现金可以用于满足受益者的具体需求,响应不断变化的需求,并创造更多自主选择的可能性。研究者避免对结果进行泛化,指出结果取决于受益者的初始收入、家庭结构和优先事项。 “现金是灵活的,”OpenResearch的研究总监伊丽莎白·罗德斯表示。“如果目标是让所有人都达到一个结果,现金可能不是精确的工具,但它能为所有人带来某些或许多不同的结果。” 阿尔特曼在2016年宣布为该项目提供资金,当时OpenAI刚刚起步,他还在运营初创孵化器Y Combinator。他当时写道,对基本收入的理念“很感兴趣”,但“关于其如何运作的数据相当少”。阿尔特曼聘请罗德斯领导基本收入项目,通过非营利组织YC Research,在2016年至2018年在奥克兰进行了试点。2019年,项目更名为OpenResearch,并在更大范围内招募更多参与者,阿尔特曼继续担任主要支持者。 阿尔特曼与埃隆·马斯克、杰克·多尔西和马克·贝尼奥夫等科技领导者一样,提倡无附加条件的现金支付,作为应对技术自动化导致职业消失的潜在解毒剂。2016年,阿尔特曼写道,“我相当有信心,在未来某个时候,随着技术继续消除传统工作并创造大量新财富,我们将在全国范围内看到某种版本的这种模式。” 推动这种模式的不仅是科技领导者。2020年疫情导致了一波地方基本收入试点,旨在将现金作为经济和种族正义的工具,测试其增强社会安全网的潜力。最近,一些州通过法律阻止这些计划,德州总检察长提起的诉讼导致休斯顿地区的一个项目暂停。批评者担心受益者会拿钱退出劳动市场,或将钱用于不良嗜好。 OpenResearch的试点于2020年开始,1000名来自伊利诺伊州和德克萨斯州农村、郊区和城市地区的低收入参与者每月收到1000美元。另有2000人每月收到50美元作为对照组。所有受益者的收入都在联邦贫困线300%或以下,平均家庭收入不到29000美元。 研究者的首批结果基于三年的付款:他们发现参与者用这笔钱购买食品、支付租金和交通费用,而不是用于不良嗜好;与此同时,他们减少了服用未经处方的止痛药和过量饮酒。 虽然现金无法解决根本的健康问题或逆转多年缺乏医疗服务的局面,罗德斯说,参与者也能更多地投入到医疗保健中,更有可能去看牙医,并且比对照组多出26%的医院就诊次数。 随着时间推移,研究者发现参与者变得更有未来规划:更善于制定预算和积攒储蓄,更有可能计划继续接受高等教育并有商业想法。 “是否能在这段时间内实现所有这些目标是另一个问题,”罗德斯承认。与对照组相比,受教育水平的显著提高或实际创办企业的几率并没有显著增加。 但其中一些流动性的梦想确实成为了现实。受益者搬家的几率比对照组高出四个百分点。罗德斯说,有些人为了更好的学区搬家,而有些人则停止了寄宿在朋友家,找到了自己的住所。 关于现金是否改变了受益者与劳动力市场的关系,研究者表示,结果再次表明,这取决于具体情况。总体而言,两个组别在研究期结束时都稍微多工作了一些,部分原因是支付开始时正值新冠疫情肆虐,结束时经济开始复苏。这并不意味着所有人都工作相同的时间:平均来说,每月获得1000美元全额支付的人比每月获得50美元的人每周少工作一个多小时。尤其是单亲家长,工作时间略有减少,这使得他们能选择更灵活的工作,并花更多时间陪伴孩子。 “一位参与者的儿子在研究的第一年被诊断出患有自闭症,传统教育方式对他很不适应,”管理该非营利组织研究与洞察的卡丽娜·多森说。“她能够辞去工作,在家教导她的儿子。” 收入最低的受益者与收入较高的受益者使用现金的方式不同。他们在经济上对家人和朋友的支持支出增加最多,相比对照组更有可能支付自己的住房费用,而不是寄宿在朋友家或依赖他人支付房租。 罗德斯说,人们常问她现金“是否有效”。 “这个问题就像在问食物是否有效一样。当然,现金是有效的,”她说。“但这不是我们需要问的关键问题。关键问题是:什么时候和在哪里有效?还有什么能最好地支持人们?” OpenResearch拒绝评论阿尔特曼是否会继续资助更多关于基本收入的研究。该组织正在积极寻求未来研究的额外资金。 “贝丝和OpenResearch团队进行了关键研究,揭示了有关普遍基本收入问题的答案,”阿尔特曼在一份声明中写道。“过去几年的工作非常出色!” 除了阿尔特曼,罗德斯表示,该研究还得到了其他个人的资助,以及来自国立卫生研究院、国家科学基金会和斯宾塞基金会的资助。 “我们真的相信这种研究模式,”罗德斯说。
Meta发布了迄今为止最大最强的开源AI模型
今年四月,Meta 曾透露正在研发 AI 领域的一个创新:一个性能媲美 OpenAI 等公司顶尖私有模型的开源模型。 今天,这个模型终于问世了。Meta 发布了 Llama 3.1,这是有史以来最大的开源 AI 模型 ( 下载:https://huggingface.co/collections/meta-llama/llama-31-669fc079a0c406a149a5738f)。公司声称,其性能在多个基准测试中超越了 GPT-4o 和 Anthropic 的 Claude 3.5 Sonnet。Llama 3.1 还将 Meta 的 AI 助手扩展到更多国家和语言,并增加了一个可以基于个人相貌生成图像的功能。Meta CEO 马克·扎克伯格预测,到今年年底,Meta AI 将成为最广泛使用的助手,超越 ChatGPT。 Llama 3.1 比几个月前发布的较小版本复杂得多。最大的版本有 4050 亿个参数,训练过程使用了超过 16000 台昂贵的 Nvidia H100 GPU。尽管 Meta 没有公开 Llama 3.1 的开发成本,但根据这些 Nvidia 芯片的价格,可以推测成本高达数亿美元。 那么,考虑到高昂的成本,Meta 为什么继续以只需公司拥有数亿用户批准的许可证免费发布 Llama 呢?在 Meta…
Elon Musk 埃隆·马斯克的xAI在孟菲斯启动全球最强大的超级计算机集群
埃隆·马斯克的人工智能初创公司xAI在田纳西州孟菲斯启动了超级计算机集群,该集群由10万块Nvidia H100 GPU组成。特斯拉CEO埃隆·马斯克在社交媒体平台X上确认了这一里程碑。 xAI这个周末非常忙碌,宣布在X平台上大规模招聘。马斯克周一早上强调了这些努力,并表示xAI希望增强其人才优势。有趣的是,马斯克还鼓励对AI感兴趣的人申请特斯拉和X的职位。 马斯克随后提到,xAI、X和Nvidia团队的合作使得孟菲斯超级计算机集群在当地时间凌晨4:20开始训练。据马斯克所说,这个超级计算机集群拥有10万块Nvidia H100 GPU,使其成为目前市场上最强大的AI训练集群。 “xAI团队、X团队、Nvidia团队和支持公司的出色工作使孟菲斯超级计算集群在当地时间凌晨4:20开始训练。拥有10万块液冷H100的单一RDMA架构,这是全球最强大的AI训练集群!到今年12月,按照每一个指标,这将是世界上最强大的AI训练优势,”马斯克在X上写道。 xAI的超级计算机集群预计将用于训练公司的大型语言模型Grok,目前Grok作为X Premium用户的一个功能推出。本月早些时候,马斯克在X上的一篇帖子中提到,xAI的Grok 3将使用10万块H100 GPU进行训练,“这应该会非常特别。” 今年六月初来自孟菲斯的报告显示,xAI将会在占地785,000平方英尺的前Electrolux孟菲斯工厂建立一个非正式称为“计算工厂”的超级计算机集群。大孟菲斯商会在一份新闻稿中表示,xAI的超级计算机项目代表了孟菲斯历史上新进入市场公司最大的资本投资。 xAI的投资是相当可观的。据Benzinga报告,每块Nvidia H100 GPU的估价在3万到4万美元之间。考虑到xAI使用了10万块Nvidia H100,埃隆·马斯克的AI初创公司似乎为该项目花费了约30亿到40亿美元。
人工智能历史:从梦想到现实的变革之路
今天的故事围绕人工智能的转型展开。它涉及发明家、科学家、企业家和大型科技公司之间的竞赛,目的是第一个实现人工通用智能(AGI)。他们不仅在金钱上下注,还在押注我们工作的转型和现有社会结构的范式转变。这种令人兴奋又不安的未来掌握在一小群人手中。可以提到OpenAI的CEO Sam Altman,他的一些事件曾导致整个行业停滞不前。 在一次信任危机后,诞生了现在所知的Anthropic。同样,最近的一次事件几乎导致OpenAI彻底崩溃。 另一位关键人物是Elon Musk,他在与Google创始人Larry Page分道扬镳后,推动了OpenAI的创建。 还可以提到Mark Zuckerberg、Satya Nadella或Sundar Pichai。不要忘记Peter Thiel(PayPal创始人)在2012年启动了AI人才竞赛。 这些塑造我们生活未来的人,他们的愿景在一段时间内一致,最终却导致了不信任和竞争。 AI的起源 在20世纪50年代,研究人员开始探索“教”机器回答人类问题的可能性。他们确定了这项技术发展的一个关键里程碑,称之为人工通用智能(AGI)。AGI将是在机器能够执行等同于人类大脑的任务时实现,例如学习说话、思考、在各种领域获取知识和做出自主决策。 由于其发展缺乏重大进展,这一想法停滞了几十年。然而,随着两位英国科学家Demis Hassabis和Mustafa Suleyman的到来,这种情况发生了变化。他们相信2010年是实现AGI计划的合适时机,考虑了计算处理和互联网的进步,这使得大量数字知识可供智能模型使用。 在此期间,他们遇到了Eliezer Yudkowsky,他是AI可以解决人类最大问题(如癌症和贫困)的早期倡导者之一。Yudkowsky成功地建立了一个理论家、学者和投资者社区,专注于AGI。Peter Thiel也在其中。Hassabis、Suleyman、Yudkowsky和Thiel建立了一个围绕创造能够改变现代世界的技术的关系。这导致了2010年DeepMind的成立,这是现代AI的开端。Hassabis和Suleyman的策略是教机器打败人类在视频游戏中的表现。 有人可能会说,IBM早在1997年通过Deep Blue击败Garry Kasparov的方式在这一领域走在前面。然而,由于开发成本高昂,IBM只将这项技术作为营销策略,而没有完全探索其可能性。 在Peter Thiel的资助和推荐下,Hassabis被邀请到SpaceX总部与Elon Musk会面。会后,Musk决定投资DeepMind。 随后,Hassabis和Suleyman说服Larry Page加入他们的项目,使DeepMind获得了Thiel、Musk和Page的重大投资和盟友。这一发展引起了硅谷其他科技巨头如微软、百度和Meta的兴趣。这个问题出现了:在哪里找到具备完全理解AI潜力的专业人才? AI领域的人才 在多伦多,Geoffrey Hinton和两名研究生,包括Ilya Sutskever,发表了一篇题为“悄然改变机器视觉的革命性技术”的研究论文。他们开发了一个能够精确识别图像内容的神经网络。这一突破主要归功于来自NVIDIA的1200万美元的初始投资,当时NVIDIA主要专注于销售电子游戏显卡。 认识到其项目和团队的潜力,Hinton寻求更多资金支持以确保其持续进展。谷歌认识到了这一潜力,决定将他们整合到其先进的模型研究中心。 随着这一发展,Hassabis和Suleyman意识到他们在留住DeepMind人才方面面临的挑战。他们如何与大型科技公司竞争?理解这一点,他们决定出售DeepMind,条件是技术不用于军事目的,所有活动由独立委员会监督。谷歌再次领先,收购了这家开创性的AI公司。这次收购,加上已经在现代AI领域取得重大进展的研究团队的加入,表明谷歌在垄断顶尖人才。除了DeepMind,谷歌还有另一个专注于AI的部门Google Brain。 OpenAI的起源 现代AI的关键人物之一是Sam Altman。早在2015年,他是Y Combinator的CEO。他与Elon Musk联系,并很快在推进AI的目标上找到了共同点。他们知道,要建立具有他们想要的影响力的技术,他们需要其他研究人员的加入,这确实做到了。他们还得到了Musk的前合作伙伴,如Peter Thiel和LinkedIn创始人Reid Hoffman的支持。 除了他们的主要目标,这个新团队还希望对抗谷歌在AI领域日益增长的垄断。2015年12月15日,他们公开宣布成立OpenAI。Musk最初投资了4000万美元以启动项目。OpenAI被设立为非营利组织,致力于将所有资源用于研究和技术,以实现AGI。他们将其模型作为开源发布,以便其他人可以免费使用其全部潜力。(未能坚持这一开源承诺,后来导致Musk离开了OpenAI项目。) 值得一提的是,Musk是OpenAI的主要推动力,并且在说服Ilya Sutskever离开谷歌并加入他们团队方面发挥了关键作用。 重大隐藏变化 这是2016年。当年没有任何重大的AI产品发布,但AI逐渐吸引了世界的兴趣。不过,矛盾的是,同年发表了一篇影响深远的AI研究论文——“Attention Is All You Need”。这可能是过去50年中最重要的AI发现。如果没有这项研究,我们今天可能不会谈论ChatGPT、Gemini、Claude等。如果再深入思考一下,我们所知道的NVIDIA及其当前的繁荣也将是不可想象的。 这就是它的重要性。 该论文引入了transformer的概念,这是一种教授机器的新方法。这种语言模型机制允许它们更快地翻译文本等。transformer的基本思想是将文本转换为称为tokens的数字组件。 这种变化成倍地提高了传统模型的学习能力,同时需要高计算处理能力。这自然限制了各种公司的访问。这时,NVIDIA开始获得其今天所持有的相关性。…
开源AI项目你可能会用到
使用人工智能可以是福也可以是祸。选择在商业或个人生活中使用人工智能的具体方面非常重要。大多数情况下,如果对所做的项目有所了解,使用人工智能可以让事情变得更简单。例如,无监督的人工智能无法写出高质量的博客文章,但如果有人撰写,通常可以辨别出文章偏离轨道的地方。同样,如果是网页设计师,可以看出人工智能设计是否有误以及哪里出现问题。寻找下一个工具时,务必要记住这一点。 以下是一些值得关注的人工智能项目。特别提到的是,Mermaid是一个开源项目,它与JavaScript结合得很好,并能与ChatGPT集成。 PhidataPhidata是一个用于构建具有增强功能的AI助手框架,超越了标准的大型语言模型(LLM)。其主要特点如下: Gemini UI to CodeGemini UI to Code是一个AI驱动的工具,使用谷歌的Gemini AI模型将UI设计转换为代码。其主要功能如下: DosuDosu是一个AI助手,旨在帮助开发人员和开源维护者更高效地管理软件项目。其主要特点如下: Julius AIJulius AI是一个AI驱动的数据分析和可视化工具,旨在让复杂的数据分析变得对所有技能水平的用户都可访问。其主要功能如下: Mermaid.jsMermaid.js是一个开源的JavaScript图表和图表工具,允许用户使用类似Markdown的文本定义创建图表。它可以与ChatGPT集成,使得用户能够直接在对话中生成和可视化复杂图表。 ChatLLMChatLLM是由Abacus AI开发的AI助手平台,提供多个尖端的大型语言模型(LLM)的访问。其主要特点如下: Qwen-AgentQwen-Agent是由阿里云开发的用于构建高级AI应用程序的开源框架,主要使用Qwen系列模型。其主要特点如下: 希望这些链接能帮助大家更好地了解并使用这些工具。
大型语言模型与数据隐私:GDPR面临的执行挑战
数字时代的数据隐私挑战:大型语言模型与GDPR的冲突 在数字时代,数据隐私是首要关注的问题,像《通用数据保护条例》(GDPR)这样的法规旨在保护个人数据。然而,大型语言模型(LLM)的出现,如GPT-4、BERT及其同类产品,对GDPR的执行提出了重大挑战。这些通过预测下一个词来生成文本的模型,其训练依赖于大量数据,这在根本上使得法规执行变得复杂。以下是为什么在LLM上执行GDPR几乎不可能的原因。 LLM的本质与数据存储 要理解执行困境,首先需要掌握LLM的工作原理。与传统数据库中结构化存储数据不同,LLM的运作方式截然不同。LLM通过大规模数据集训练,调整数百万甚至数十亿的参数(权重和偏差)。这些参数捕捉了数据中的复杂模式和知识,但并不以可检索的形式存储数据。 当LLM生成文本时,它并不是访问存储的短语或句子数据库,而是使用已学得的参数来预测序列中最有可能的下一个词。这一过程类似于人类基于语言模式生成文本,而不是从记忆中精确地回忆短语。 被遗忘权 GDPR的一项核心权利是“被遗忘权”,允许个人请求删除其个人数据。在传统的数据存储系统中,这意味着定位并删除特定的数据条目。然而,对于LLM来说,识别和移除嵌入在模型参数中的特定个人数据几乎是不可能的。数据不是明确存储的,而是以无法单独访问或更改的方式分散在无数参数中。 数据擦除与模型再训练 即便理论上可以识别LLM中的特定数据点,擦除它们也是一个巨大的挑战。从LLM中删除数据需要重新训练模型,这是一个昂贵且耗时的过程。要从头开始重新训练模型以排除某些数据,需要与最初相同的广泛资源,包括计算能力和时间,使其变得不切实际。 匿名化与数据最小化 GDPR还强调数据匿名化和最小化。虽然LLM可以在匿名数据上训练,但确保完全匿名化是困难的。匿名数据有时在与其他数据结合时仍可能透露个人信息,导致潜在的重新识别。此外,LLM需要大量数据才能有效运行,这与数据最小化的原则相冲突。 透明度与可解释性不足 GDPR的另一个要求是能够解释如何使用个人数据以及如何做出决策。然而,LLM通常被称为“黑箱”,因为其决策过程不透明。理解模型为什么生成特定文本涉及解读众多参数之间的复杂互动,这超出了当前技术能力。这种缺乏可解释性阻碍了对GDPR透明度要求的遵守。 前进的方向:监管与技术的适应 鉴于这些挑战,在LLM上执行GDPR需要监管和技术的双重适应。监管机构需要制定考虑到LLM独特性质的指南,可能需要重点关注AI的伦理使用和在模型训练与部署期间实施强有力的数据保护措施。 在技术方面,模型可解释性和控制方面的进步可以帮助实现合规。使LLM更透明的技术以及追踪模型内部数据来源的方法是正在研究的领域。此外,差分隐私确保添加或删除单个数据点不会显著影响模型输出,这可能是使LLM实践与GDPR原则对齐的一步。 在LLM领域执行GDPR因这些模型的基本运作方式而复杂重重。数据在数百万参数中的扩散、数据擦除的不可行性以及缺乏透明度,都使得严格遵守GDPR几乎不可能。随着LLM的不断发展并越来越多地集成到各种应用中,技术人员与监管机构之间的合作将至关重要,以制定既保护用户数据又能应对这些强大模型所带来的独特挑战的框架。