生成式AI的快速进步凸显了文本嵌入的重要性 文本嵌入将文本数据转化为密集向量表示,使模型能够高效处理文本、图像、音频等数据类型。各种嵌入库在这一领域中脱颖而出,每个都有其独特的优势和局限。以下是10个流行嵌入库的比较及其链接。 1. OpenAI Embeddings 优势: 局限: 2. HuggingFace Embeddings 优势: 局限: 3. Gensim Word Embeddings 优势: 局限: 4. Facebook Embeddings 优势: 局限: 5. AllenNLP Embeddings 优势: 局限: 6. MultiLingual BERT 适用于多语言数据集,嵌入维度为768,模型大小为1.04GB。 7. RoBERTa (2022) 适用于通用文本处理,嵌入维度为768,模型大小为476MB。 8. MPNet V2 使用Siamese架构,专为文本相似性任务设计,嵌入维度为768,模型大小为420MB。 9. Scibert Science-Vocabulary Uncased 专为科学文本预训练,嵌入维度为768,模型大小为442MB。 10. DistilBERT Base Uncased BERT的小型快速版本,嵌入维度为768,模型大小为268MB。 比较分析 选择嵌入库主要取决于具体的用例、计算需求和定制需求。OpenAI嵌入适合高级NLP任务和零样本学习场景,但需要大量计算能力,训练后灵活性有限。HuggingFace嵌入提供多功能且定期更新的模型,适用于文本、图像和多模态数据,易于集成和定制,但某些功能可能需要用户身份验证。Gensim Word Embeddings专注于文本,是NLP任务中需要定制训练的良好选择,但不支持非文本数据,模型选择较少。Facebook Embeddings提供强大的多语言文本嵌入和定制训练支持,适合大规模NLP应用,但设置和集成复杂。AllenNLP…
Author: aitrendtrackers@rengongzhineng.io
极客时间:使用开源RouteLLM 集成多模型Nvidia NIM的经济高效方案?
在过去的几次极客时间中,探讨了Nvidia NIMS和Microsoft Autogen。MS Autogen能够利用各种本地和在线模型的能力令人着迷。而降低推理成本的挑战也同样引人入胜。今天,将玩一个名为RouteLLM的开源库,它承诺通过高效管理和集成不同的AI模型来解决这些问题。 安装RouteLLM首先,需要在机器上安装RouteLLM:(https://github.com/lm-sys/RouteLLM) 设置环境然后,必须使用Nvidia NIM和OpenAI的API密钥来设置环境。在“examples”文件夹下创建一个文件run_route_llm.py。 代码片段如下: 需要分别登录NIM和OpenAI账户生成API密钥并复制过来。 初始化控制器接下来,从RouteLLM包中初始化控制器。控制器负责管理不同AI模型之间的通信并处理路由逻辑。将NIM上的llama-3.1设置为弱模型,而gpt-4则为强模型。初始化控制器的代码如下: 创建聊天完成控制器初始化后,可以创建聊天完成。发送用户消息并接收模型的响应。代码片段如下: 观察RouteLLM有效地管理了Nvidia NIM和OpenAI模型之间的路由。通过将较不复杂的查询路由到较弱的模型(llama 3.1),而将较复杂的查询路由到较强的模型(gpt-4),RouteLLM提供了一种潜在的成本优化策略。 阈值校准RouteLLM中的阈值校准涉及设置阈值以管理路由查询的成本质量权衡。校准过程使用查询样本来确定适当的阈值,以将特定百分比的查询路由到较强的模型。默认情况下,校准使用公共的Chatbot Arena数据集,例如,要使用mf路由器将50%的查询路由到较强的模型,可以使用以下命令: 对于mf的50.0%强模型调用,阈值=0.11593。这表示为mf路由器设置的阈值,以便大约50%的调用路由到较强的模型router-mf-0.11593。可以根据路由器和权衡设置不同的阈值。 结论RouteLLM为管理多个AI模型提供了一种解决方案,优化了性能和成本。将RouteLLM集成到工作流程中可以显著增强AI能力。有很多用例,其中之一是添加校准阈值和在资源受限设备(如物联网设备)上将查询路由到本地或在线模型的能力。这增加了灵活性,特别有用。 请随意探索RouteLLM GitHub仓库,并尝试使用自己的模型。如果有任何问题或想分享经验,请在下方留言。 玩得开心!
Nvidia推出AI Foundry服务:助力企业定制大语言模型,抢占企业AI市场
Nvidia悄然推出AI Foundry服务:助力企业打造定制化大语言模型 周二,Nvidia低调发布了其新的AI Foundry服务,旨在帮助企业创建和部署适应其特定需求的定制化大语言模型。这一举措表明Nvidia正努力在迅速增长的企业AI市场中占据更大的份额。 AI Foundry服务:Nvidia硬件、软件工具和专业知识的结合AI Foundry结合了Nvidia的硬件、软件工具和专业知识,使公司能够开发定制版本的热门开源模型,如Meta最近发布的Llama 3.1。随着企业越来越希望利用生成式AI的力量,同时保持对其数据和应用的控制,这项服务应运而生。 生成式AI的力量:AI如何改变工作和生活Nvidia的AI软件副总裁Kari Briski在接受VentureBeat电话采访时表示:“这是我们一直期待的时刻。企业争先恐后地了解生成式AI。但同样重要的是:开源模型的可用性。” 定制化推动精度提升:Nvidia的AI Foundry如何提高模型性能Nvidia的新产品旨在简化为特定业务用例调整这些开源模型的复杂过程。公司声称,通过定制化,模型性能显著提高。“我们发现,通过简单地定制模型,准确性几乎提高了十个百分点,”Briski解释道。 AI Foundry服务提供访问大量预训练模型、高性能计算资源(通过Nvidia的DGX Cloud)以及用于模型定制和评估的NeMo工具包。Nvidia的AI专家指导也是服务的一部分。 Briski说:“我们提供基础设施和工具,帮助其他公司开发和定制AI模型。企业带来他们的数据,我们有与许多云合作伙伴共同提供容量的DGX Cloud。” NIM:Nvidia独特的AI模型部署方法除了AI Foundry,Nvidia还推出了NIM(Nvidia推理微服务),将定制化模型打包成容器化、API可访问的格式,便于部署。这一发展标志着公司的重要里程碑。“NIM是一个模型,一个定制化模型和一个通过标准API访问的容器,”Briski说。“这是我们多年工作和研究的成果。” 行业分析师认为,此举是Nvidia扩展AI产品组合的战略性扩展,有可能开辟除其核心GPU业务以外的新收入来源。公司正将自己定位为全栈AI解决方案提供商,而不仅仅是硬件制造商。 企业AI采用:Nvidia对定制模型的战略赌注Nvidia的公告时机尤为重要,正值Meta发布Llama 3.1之际,并在AI安全和治理日益受到关注的背景下。通过提供一项允许公司创建和控制自己的AI模型的服务,Nvidia可能正在利用那些希望享受先进AI带来的好处但又不愿承担使用公共通用模型风险的企业市场。 然而,广泛定制AI模型部署的长期影响尚不清楚。潜在挑战包括各行业间AI能力的碎片化以及维持AI安全和伦理一致性标准的难度。 随着AI领域的竞争加剧,Nvidia的AI Foundry代表了对企业AI采用未来的重大赌注。这场赌博的成功将在很大程度上取决于企业如何有效利用这些定制模型,在各自行业中推动现实世界的价值和创新。
谷歌DeepMind的AlphaProof和AlphaGeometry 2:AI系统在国际数学奥林匹克竞赛中取得突破
周四,谷歌DeepMind宣布其AI系统AlphaProof和AlphaGeometry 2在今年的国际数学奥林匹克竞赛(IMO)中解决了六个问题中的四个,获得了相当于银牌的分数。谷歌称,这是AI首次在这一著名数学竞赛中达到这样的水平——但和AI领域的其他声明一样,这一成就也并非完全没有争议。 深入了解 谷歌表示,AlphaProof使用强化学习来在一种叫做Lean的形式化语言中证明数学命题。该系统通过生成和验证数百万个证明来训练自己,逐步解决更复杂的问题。与此同时,AlphaGeometry 2被描述为谷歌之前几何求解AI模型的升级版,现在由基于Gemini的语言模型提供支持,并在大量数据上进行训练。 据谷歌称,著名数学家蒂莫西·高尔斯爵士和约瑟夫·迈尔斯博士使用IMO的官方规则对AI模型的解答进行评分。公司报告称,其综合系统在42个可能得分中获得了28分,距离29分的金牌门槛仅差一点。这包括在比赛中最难的一个问题上取得的满分,谷歌声称今年只有五名人类选手解决了这个问题。 一场与众不同的数学竞赛 自1959年以来,每年举办的IMO让顶尖的高中数学家们面对代数、组合学、几何和数论中极其困难的问题。IMO问题的表现已成为评估AI系统数学推理能力的公认基准。 谷歌声称,AlphaProof解决了两个代数问题和一个数论问题,而AlphaGeometry 2则解决了几何问题。AI模型未能解决两个组合学问题。公司声称其系统在几分钟内解决了一个问题,而其他问题则花费了长达三天的时间。 谷歌表示,他们首先将IMO问题翻译成AI模型可以处理的形式化数学语言。这一步与正式比赛不同,后者要求人类选手在两次4.5小时的比赛中直接处理问题陈述。 谷歌报告称,在今年的比赛之前,AlphaGeometry 2能够解决过去25年历史IMO几何问题的83%,高于其前身的53%的成功率。公司称,新系统在收到形式化版本后,在19秒内解决了今年的几何问题。 局限性 尽管谷歌声称取得了突破,但蒂莫西·高尔斯爵士在X上的一个帖子中提供了更为细致的看法。虽然他承认这一成就“远超以往的自动定理证明器所能达到的水平”,但也指出了几个重要的限制条件。 “主要的限制是程序需要比人类选手更长的时间——有些问题超过60小时——当然处理速度也比人类大脑快得多,”高尔斯写道。“如果人类选手被允许每个问题有这么长的时间,他们的得分无疑会更高。” 高尔斯还指出,在AI模型开始工作之前,问题是由人类手动翻译成Lean的形式化语言的。他强调,尽管AI执行了核心的数学推理,但这一“自动形式化”步骤是由人类完成的。 关于对数学研究的更广泛影响,高尔斯表示不确定。“我们是否接近数学家变得多余的地步?很难说。我猜我们还需要一个或两个突破,”他写道。他认为系统的长处理时间表明它尚未“解决数学问题”,但也承认“当它运行时显然有些有趣的事情在发生。” 即便有这些限制,高尔斯推测这样的AI系统可能会成为有价值的研究工具。“我们可能接近拥有一个程序,它可以让数学家回答一系列广泛的问题,只要这些问题不是太难——类似于人类在几小时内可以解决的问题。即使它本身不能解决开放问题,这也将是一个非常有用的研究工具。”
Gemini重大升级:1.5 Flash带来更快响应,扩大使用范围及更多功能
每天,大家都在发现如何利用Gemini提高生产力、创意和好奇心。今天的更新让Gemini在帮助完成任务方面更加出色,以最适合用户的方式助力。 现在,Gemini的免费版本已经可以使用1.5 Flash功能,响应更快更有用。此外,还推出了一个新功能来进一步解决幻觉问题,并扩展了适用于青少年的Gemini体验和移动应用。 更快更智能的1.5 Flash响应许多人喜欢使用Gemini是因为它节省时间。无论是写一封吸引人的邮件还是调试复杂的代码,快速且高质量的响应都非常重要。 今天,免费体验升级为Gemini 1.5 Flash。新版本显著提升了质量和延迟,尤其在推理和图像理解方面表现突出。与之前在高级版本中大幅扩展上下文窗口一样,免费版的上下文窗口也扩展至32K tokens。这意味着可以进行更长时间的对话和提出更复杂的问题,且无需额外费用。 为了充分利用这个更大的上下文窗口,用户很快可以通过Google Drive或设备直接上传文件,这项功能在高级版本中已经可用。这样一来,可以上传经济学学习指南并要求Gemini创建练习题,Gemini还能够分析数据文件,为用户揭示见解并通过图表进行可视化展示。 Gemini 1.5 Flash现已在网络和移动端向所有用户开放,支持40多种语言,覆盖230多个国家和地区。 Gemini响应中的相关内容用户还喜欢将Gemini作为研究伙伴来探索新话题。为此,现在在Gemini中展示与寻求事实相关的提示链接,继续致力于减少幻觉,并更容易探索有助于学习的网站。 从今天起,在某些国家使用英语提示时,可以直接在Gemini响应中访问这些额外的信息。点击段落末尾的芯片即可查看相关主题的网站链接。这不仅限于网站:如果Gemini的响应引用了通过Gmail扩展找到的信息,也会看到相关邮件的内嵌链接。 这项功能建立在减少幻觉的基础上。除了相关内容链接外,Gemini的双重检查功能通过Google搜索验证响应内容,突出显示哪些陈述在网络上得到支持或反驳。对于被反驳的信息,用户可以更深入地验证其真实性。 更多地方的Gemini功能今年早些时候,部分Android设备用户可以在Google Messages中直接与Gemini聊天。今天开始,Gemini将在欧洲经济区(EEA)、英国和瑞士逐步推出,新增法语、波兰语和西班牙语等语言。点击Messages中的“开始聊天”按钮并选择Gemini,即可在不离开Google Messages应用的情况下开始头脑风暴、规划行程等。 此外,Gemini移动应用将在更多国家推出,让世界各地更多人可以随时随地获得Gemini的帮助。 扩展青少年使用的Gemini下周,Gemini将面向全球青少年扩展使用,支持40多种语言。符合管理自己Google账号最低年龄要求的青少年可以使用Gemini更好地理解学校课程、准备大学或完成创意项目。 希望为青少年提供利用生成式AI的机会,帮助他们为未来的AI中心角色做好准备,同时优先考虑安全并满足他们的发展需求。为了帮助青少年自信、安全地使用Gemini,推出了额外的政策和保障措施,制定了针对青少年的入门流程,并包括AI素养指南,帮助他们负责任地使用AI。此外,还与包括MediaSmarts(加拿大)、Miudos Seguros na Net(葡萄牙)和Fad Juventud(西班牙)在内的儿童安全和发展专家合作,继续提供满足青少年和家庭独特需求的专业知识。 Gemini的责任设计Gemini的开发始终以责任和用户安全为指导。随着Gemini的不断发展,分享更多关于其设计和响应方式的信息。现在可以阅读有关Gemini设计的方法及其政策指南的更多细节,以更好地理解如何处理复杂和敏感的话题,包括涉及公共利益问题、政治、宗教或道德信仰的回应。这些指南以AI原则为基础,反映了开发该技术的责任和透明承诺。
OpenAI 宣布推出SearchGPT:一款具实时信息访问能力的AI搜索引擎
OpenAI 宣布其备受期待的搜索市场新产品——SearchGPT,这是一款具备实时访问互联网信息能力的AI驱动搜索引擎。(https://chatgpt.com/search) SearchGPT的搜索框从一个大文本框开始,提示用户输入“您在寻找什么?”与传统的链接列表不同,SearchGPT尝试组织并解读信息。在OpenAI提供的一个示例中,搜索引擎总结了有关音乐节的信息,并呈现简短的活动描述,后面附上来源链接。 另一个示例中,它解释了番茄的种植时间,然后详细介绍了不同品种的番茄。在结果出现后,用户可以提出后续问题或点击侧边栏打开其他相关链接。此外,还有一个称为“视觉答案”的功能,但在截稿前,OpenAI尚未向The Verge详细说明该功能的具体工作方式。 一个SearchGPT查询示例,用户搜索“2024年8月在北卡罗来纳州布恩的音乐节”。模型提供了从网络上实时抓取的信息,包括链接到来源的内容。 目前,SearchGPT只是一个“原型”。该服务由GPT-4家族模型提供支持,启动时仅向10,000名测试用户开放,OpenAI发言人凯拉·伍德告诉The Verge。伍德表示,OpenAI正在与第三方合作伙伴合作,并使用直接内容源来构建其搜索结果。最终目标是将这些搜索功能直接集成到ChatGPT中。 这可能会对Google构成重大威胁。Google急于在其搜索引擎中加入AI功能,担心用户会涌向更早提供这些工具的竞争产品。这也让OpenAI更直接地与创业公司Perplexity竞争,后者自称为AI“答案”引擎。Perplexity最近因其AI摘要功能受到批评,出版商声称其直接抄袭他们的作品。 SearchGPT的“视觉答案”功能展示了OpenAI的Sora在YouTube上的AI生成视频。它还包括一行企鹅及其家庭的单个图像。顶部有一家公司股票的截图,右侧是一个被云遮住的太阳。SearchGPT的“视觉答案”功能展示了OpenAI的Sora在YouTube上的AI生成视频。图片来源:OpenAIOpenAI似乎注意到了这些反对声音,并表示它采取了显著不同的方法。在一篇博客文章中,该公司强调SearchGPT是在与包括《华尔街日报》、美联社和Vox Media等新闻合作伙伴合作开发的。“新闻合作伙伴提供了宝贵的反馈,我们继续寻求他们的意见,”伍德说。 出版商将有一种方式来“管理他们在OpenAI搜索功能中的出现方式,”公司写道。他们可以选择不将其内容用于训练OpenAI的模型,同时仍能在搜索中显示。 “回答有明确的、内联的命名归因和链接,以便用户知道信息来自哪里,并能快速与更多结果互动,这些结果在带有来源链接的侧边栏中。” 以原型形式发布搜索引擎对OpenAI有多重好处。首先,如果SearchGPT的结果严重错误——比如Google推出AI概览时告诉我们把胶水涂在披萨上——可以更容易地解释为“它只是个原型!”也有可能会出错归因或完全抄袭文章,正如Perplexity被指控的那样。 关于这个新产品的传闻已经流传数月,《信息》在2月份报道了其开发情况,随后彭博社在5月份报道了更多消息。我们也报道了OpenAI曾积极挖掘Google员工组建搜索团队。一些X用户还注意到OpenAI正在开发的新网站暗示了这一举动。 OpenAI一直在逐步让ChatGPT与实时网络联系更紧密。GPT-3.5发布时,AI模型已经过时数月。去年9月,OpenAI推出了一种让ChatGPT浏览互联网的方式,称为Browse with Bing,但与SearchGPT相比显得非常初步。 OpenAI的快速进展赢得了ChatGPT数百万用户,但公司的成本也在增加。据《信息》本周报道,OpenAI的AI训练和推理成本今年可能达到70亿美元,免费版本的ChatGPT用户数量不断增加,进一步推高了计算成本。SearchGPT将在初期推出时免费,当前似乎没有广告,这意味着公司需要尽快找到变现方式。
“够大,够强” | Mistral Large 2重磅发布
最新一代继续在成本效益、速度和性能方面突破极限。Mistral Large 2在la Plateforme平台上发布,新增了许多功能,方便构建创新的AI应用。 Mistral Large 2 Mistral Large 2拥有128k的上下文窗口,支持包括法语、德语、西班牙语、意大利语、葡萄牙语、阿拉伯语、印地语、俄语、中文、日语和韩语在内的多种语言,还支持超过80种编程语言,包括Python、Java、C、C++、JavaScript和Bash。 Mistral Large 2专为单节点推理和长上下文应用设计,具备1230亿参数,能够在单节点上实现大吞吐量。Mistral Large 2在Mistral Research License下发布,允许研究和非商业用途的使用和修改。商业用途需获取Mistral Commercial License,通过联系我们获取。 综合性能 Mistral Large 2在性能和成本方面设立了新的标准。特别是在MMLU评估中,预训练版本达到了84.0%的准确率,刷新了开源模型在性能/成本比上的记录。 代码和推理能力 借鉴Codestral 22B和Codestral Mamba的经验,Mistral Large 2在大量代码数据上进行训练,表现远超之前的Mistral Large,并且与领先的模型如GPT-4o、Claude 3 Opus和Llama 3 405B表现相当。 详细基准测试 大量精力也用于提升模型的推理能力,重点减少模型“幻觉”生成错误信息的倾向,通过细致的调整使模型在回应时更加谨慎和可靠。此外,Mistral Large 2能够在无法找到解决方案或没有足够信息时,主动承认这一点。这种对准确性的承诺在数学基准测试中表现得尤为明显,展示了其增强的推理和解决问题的能力。 指令执行和对齐 Mistral Large 2的大幅改进在于其指令执行和对话能力,尤其在精确指令的遵循和长对话处理上表现优异。下图展示了MT-Bench、Wild Bench和Arena Hard基准测试中的表现: 语言多样性 如今,许多商业用例涉及多语言文档处理。虽然大多数模型以英语为主,新版Mistral Large 2在多语言数据上进行了大量训练,特别擅长处理英语、法语、德语、西班牙语、意大利语、葡萄牙语、荷兰语、俄语、中文、日语、韩语、阿拉伯语和印地语。下图展示了Mistral Large 2在多语言MMLU基准测试中的表现,与之前的Mistral Large、Llama 3.1模型和Cohere’s Command R+进行了对比。 工具使用和函数调用…
扎克伯格:人工智能开放源代码有助于全球繁荣与安全
扎克伯格:人工智能开放源代码有助于全球繁荣与安全 Meta首席执行官马克·扎克伯格在一封公开信中表示,重要的是技术不能被少数几家巨头公司(包括他自己的公司)所控制。 长期以来,技术专家们一直在争论公司是应该对其计算机代码保密,还是与全球的软件开发人员共享。这个关于封闭与开放源代码的争论因人工智能的快速发展和对其迅速成为国家安全问题的担忧而变得更加激烈。 在周二的一封公开信中,扎克伯格重申了公司采取的被一些人认为是冒险的立场:开放源代码的人工智能开发将允许技术人员学习强大AI模型的创建方法,并利用这些知识来构建自己的AI程序。 扎克伯格认为,指望少数几家公司能保守其AI技术的秘密是不现实的,尤其是硅谷多年来一直是中国等国家间谍活动的目标。 “我认为政府会得出结论,支持开放源代码符合他们的利益,因为这将使世界更加繁荣和安全,”他在信中表示,并补充说,限制AI研究的分享只会抑制美国的创新。 Meta还发布了最新、最强大的AI算法LLaMA,并为其AI助手Meta AI增加了包括印地语、法语和西班牙语在内的七种新语言支持。 在拜登政府权衡监管AI的应对措施之际,扎克伯格再次呼吁拥抱开放源代码技术。去年,拜登总统发布了一项全面的行政命令,呼吁在AI技术周围建立更多的安全保障措施,包括应对AI驱动的聊天机器人和视频程序传播虚假信息的方法。 四月份,商务部就如何应对人工智能的一系列草案征求反馈意见。 OpenAI、微软和谷歌等公司认为,AI可能是危险的,并且发展如此迅速,应由最了解它的技术人员紧密控制。批评者还表示,在美国开发的AI软件可能会被中国等国家利用,以与美国竞争或潜在地对美国造成伤害。 扎克伯格和一些小型初创公司如Hugging Face的高管们则认为,参与开发的人越多,就越容易发现问题。 “开放源代码将确保世界上更多的人可以获得AI的好处和机会,权力不会集中在少数几家公司手中,技术可以更均匀和安全地在整个社会中部署,”扎克伯格说。 扎克伯格承认,他的动机不仅仅是出于利他主义。使用Meta服务的技术人员越多,其产品在行业内的标准化程度就越高。而且,扎克伯格不希望通过其他公司的产品——主要是苹果和谷歌——来接触客户,这是他多年来一直被迫做的事情。 “我们必须确保始终能够获得最好的技术,而不是被锁定在竞争对手的封闭生态系统中,在那里他们可以限制我们开发的内容,”他在信中补充道。
山姆·阿尔特曼openResearch试验:探索AI基本收入的未来可能性
近几年,向低收入美国人直接发放现金的想法迅速流行起来,美国35个州内已经有超过150个地方试点正在测试这种“基本收入”的理念。其中最大的试点项目并非来自某个城市或县,而是由OpenAI首席执行官兼创始人山姆·阿尔特曼支持的OpenResearch项目发起。 经过三年时间,在伊利诺伊州和德克萨斯州每月向受益者发放1000美元后,该组织发布了三篇研究论文。与之前的许多研究一样,OpenResearch发现受益者主要用于满足基本需求和帮助他人,且并未退出劳动力市场,虽然工作时间略有减少。但研究者最大的发现是现金提供了灵活性。 研究者指出,现金可以用于满足受益者的具体需求,响应不断变化的需求,并创造更多自主选择的可能性。研究者避免对结果进行泛化,指出结果取决于受益者的初始收入、家庭结构和优先事项。 “现金是灵活的,”OpenResearch的研究总监伊丽莎白·罗德斯表示。“如果目标是让所有人都达到一个结果,现金可能不是精确的工具,但它能为所有人带来某些或许多不同的结果。” 阿尔特曼在2016年宣布为该项目提供资金,当时OpenAI刚刚起步,他还在运营初创孵化器Y Combinator。他当时写道,对基本收入的理念“很感兴趣”,但“关于其如何运作的数据相当少”。阿尔特曼聘请罗德斯领导基本收入项目,通过非营利组织YC Research,在2016年至2018年在奥克兰进行了试点。2019年,项目更名为OpenResearch,并在更大范围内招募更多参与者,阿尔特曼继续担任主要支持者。 阿尔特曼与埃隆·马斯克、杰克·多尔西和马克·贝尼奥夫等科技领导者一样,提倡无附加条件的现金支付,作为应对技术自动化导致职业消失的潜在解毒剂。2016年,阿尔特曼写道,“我相当有信心,在未来某个时候,随着技术继续消除传统工作并创造大量新财富,我们将在全国范围内看到某种版本的这种模式。” 推动这种模式的不仅是科技领导者。2020年疫情导致了一波地方基本收入试点,旨在将现金作为经济和种族正义的工具,测试其增强社会安全网的潜力。最近,一些州通过法律阻止这些计划,德州总检察长提起的诉讼导致休斯顿地区的一个项目暂停。批评者担心受益者会拿钱退出劳动市场,或将钱用于不良嗜好。 OpenResearch的试点于2020年开始,1000名来自伊利诺伊州和德克萨斯州农村、郊区和城市地区的低收入参与者每月收到1000美元。另有2000人每月收到50美元作为对照组。所有受益者的收入都在联邦贫困线300%或以下,平均家庭收入不到29000美元。 研究者的首批结果基于三年的付款:他们发现参与者用这笔钱购买食品、支付租金和交通费用,而不是用于不良嗜好;与此同时,他们减少了服用未经处方的止痛药和过量饮酒。 虽然现金无法解决根本的健康问题或逆转多年缺乏医疗服务的局面,罗德斯说,参与者也能更多地投入到医疗保健中,更有可能去看牙医,并且比对照组多出26%的医院就诊次数。 随着时间推移,研究者发现参与者变得更有未来规划:更善于制定预算和积攒储蓄,更有可能计划继续接受高等教育并有商业想法。 “是否能在这段时间内实现所有这些目标是另一个问题,”罗德斯承认。与对照组相比,受教育水平的显著提高或实际创办企业的几率并没有显著增加。 但其中一些流动性的梦想确实成为了现实。受益者搬家的几率比对照组高出四个百分点。罗德斯说,有些人为了更好的学区搬家,而有些人则停止了寄宿在朋友家,找到了自己的住所。 关于现金是否改变了受益者与劳动力市场的关系,研究者表示,结果再次表明,这取决于具体情况。总体而言,两个组别在研究期结束时都稍微多工作了一些,部分原因是支付开始时正值新冠疫情肆虐,结束时经济开始复苏。这并不意味着所有人都工作相同的时间:平均来说,每月获得1000美元全额支付的人比每月获得50美元的人每周少工作一个多小时。尤其是单亲家长,工作时间略有减少,这使得他们能选择更灵活的工作,并花更多时间陪伴孩子。 “一位参与者的儿子在研究的第一年被诊断出患有自闭症,传统教育方式对他很不适应,”管理该非营利组织研究与洞察的卡丽娜·多森说。“她能够辞去工作,在家教导她的儿子。” 收入最低的受益者与收入较高的受益者使用现金的方式不同。他们在经济上对家人和朋友的支持支出增加最多,相比对照组更有可能支付自己的住房费用,而不是寄宿在朋友家或依赖他人支付房租。 罗德斯说,人们常问她现金“是否有效”。 “这个问题就像在问食物是否有效一样。当然,现金是有效的,”她说。“但这不是我们需要问的关键问题。关键问题是:什么时候和在哪里有效?还有什么能最好地支持人们?” OpenResearch拒绝评论阿尔特曼是否会继续资助更多关于基本收入的研究。该组织正在积极寻求未来研究的额外资金。 “贝丝和OpenResearch团队进行了关键研究,揭示了有关普遍基本收入问题的答案,”阿尔特曼在一份声明中写道。“过去几年的工作非常出色!” 除了阿尔特曼,罗德斯表示,该研究还得到了其他个人的资助,以及来自国立卫生研究院、国家科学基金会和斯宾塞基金会的资助。 “我们真的相信这种研究模式,”罗德斯说。
Meta发布了迄今为止最大最强的开源AI模型
今年四月,Meta 曾透露正在研发 AI 领域的一个创新:一个性能媲美 OpenAI 等公司顶尖私有模型的开源模型。 今天,这个模型终于问世了。Meta 发布了 Llama 3.1,这是有史以来最大的开源 AI 模型 ( 下载:https://huggingface.co/collections/meta-llama/llama-31-669fc079a0c406a149a5738f)。公司声称,其性能在多个基准测试中超越了 GPT-4o 和 Anthropic 的 Claude 3.5 Sonnet。Llama 3.1 还将 Meta 的 AI 助手扩展到更多国家和语言,并增加了一个可以基于个人相貌生成图像的功能。Meta CEO 马克·扎克伯格预测,到今年年底,Meta AI 将成为最广泛使用的助手,超越 ChatGPT。 Llama 3.1 比几个月前发布的较小版本复杂得多。最大的版本有 4050 亿个参数,训练过程使用了超过 16000 台昂贵的 Nvidia H100 GPU。尽管 Meta 没有公开 Llama 3.1 的开发成本,但根据这些 Nvidia 芯片的价格,可以推测成本高达数亿美元。 那么,考虑到高昂的成本,Meta 为什么继续以只需公司拥有数亿用户批准的许可证免费发布 Llama 呢?在 Meta…