谷歌的AI搜索工具建议用户“吃石头”对健康有益,这一搞笑的回答引发了众人哗然。为了提高LLMs(大型语言模型)的可靠性,我们推出了AGREE,一种基于学习的框架,旨在使LLMs能够在回答中提供准确的引用,从而提高用户的信任度。 近年来,LLMs在多跳推理、生成计划和使用工具和API等各种能力上展示了显著进步,显示出在许多下游应用中的巨大潜力。然而,在现实世界中部署时,LLMs的可靠性有时会因“幻觉”问题而受损,即模型生成了看似合理但实际上并不准确的信息。当LLMs被要求回答涉及广泛世界知识的开放性问题时,“幻觉”问题更为常见,这在需要高度准确性的领域,如新闻报道和教育内容中尤其具有风险。 为了应对LLMs的“幻觉”问题,基础性研究致力于追溯其声明到可靠的来源。这样的系统不仅能提供连贯且有用的回答,还能通过引用外部知识来支持其声明。 在我们即将在NAACL 2024上展示的论文“提升基础性的大型语言模型适应方法”中,我们介绍了一个新的LLM基础性框架,称为AGREE(Adaptation for GRounding EnhancEment),它使LLMs能够自我基础化其回答中的声明,并提供精确的引用,增强用户信任并扩展其潜在应用。在五个数据集上的全面实验表明,AGREE比以前的基于提示或事后引用的方法在基础性方面有显著提升,通常能实现超过30%的相对改进。 改进基础性的整体方法 以前改善基础性的研究主要遵循两种显著的范式。一种是使用额外的自然语言推理(NLI)模型事后添加引用,这种方法严重依赖于LLM嵌入中的知识,无法很好地扩展到超出该范围的事实。另一种常见的基础性方法是利用LLMs的指令跟随和上下文学习能力。这种方法要求LLMs仅通过少量演示提示来学习基础性,实际效果并不理想。 我们的新框架AGREE采用整体方法,结合基于学习的适应和测试时适应(TTA),以改善LLMs的基础性和引用生成。不同于以前的基于提示的方法,AGREE对LLMs进行微调,使其能够自我基础化其回答中的声明并提供准确的引用。这种在预训练LLMs之上进行的微调需要良好的基础性回答(带有引用),为此我们引入了一种方法,可以从未标记的查询中自动构建这样的数据。经过微调的LLMs的自我基础化能力进一步赋予了它们TTA能力,能够迭代地改进其回答。 微调LLMs以实现自我基础化 在训练期间,AGREE从未标记的查询中收集合成数据,然后使用这些数据微调基础LLM,使其能够自我基础化其声明。针对一个未标记的查询,我们首先使用检索模型从可靠来源(如维基百科)检索相关段落。然后,我们向基础LLM呈现检索到的段落并采样一组初始回答(不带引用)。接下来,我们使用一个NLI模型(在我们的例子中,是Google TrueNLI模型的变体),来判断一个声明是否由段落支持,帮助为初始回答添加引用。对于初始回答中的每个句子,我们使用NLI模型找到可以支持该句子的段落,并相应地添加引用。对于没有支持段落的句子,我们不会添加引用。 测试时适应 在测试时,AGREE引入了一种迭代推理策略,使LLM能够根据其自我生成的引用主动寻找更多信息。针对一个查询,我们首先使用检索模型获取初始段落集。然后,我们迭代执行以下步骤:1)在每次迭代中,适应后的LLM生成包含对段落集引用的回答,并找到没有引用的任何不支持声明。2)接着,我们根据引用信息主动向LLM提供更多信息——如果存在不支持声明,我们会使用这些声明检索更多可靠来源的信息,否则,我们会包括使用查询检索到的更多未见段落,以获取更完整的信息。 实验 我们进行了全面的实验,展示AGREE在有无TTA情况下的有效性。我们在五个数据集上对其进行了评估,包括两个域内数据集(NQ和StrategyQA)和三个域外数据集(ASQA、QAMPARI和一个内部QA数据集“Enterprise”)以测试我们框架的泛化能力。我们将AGREE应用于适应两个LLMs,并将其与一个竞争性的基于提示的基线(ICLCite)和一个事后引用的基线(PostCite)进行比较。 主要实验结果 实验结果表明AGREE在文本语料库中生成的回答具有更好的基础性(通过引用召回率衡量),并为其回答提供了准确的引用(通过引用精确度衡量)。它在各个数据集上都显著优于所选择的基线。 AGREE不仅在域内数据集上表现出色,在域外数据集上的零样本设定下也能有效泛化,这表明我们的框架具有显著的泛化优势。
Author: aitrendtrackers@rengongzhineng.io
谷歌的AI搜索工具建议用户“吃石头”对健康有益
Google最新的AI搜索工具闹笑话了,竟然建议用户吃石头有益健康,还要把奶酪用胶水粘到披萨上。这些搞笑的回答让人哭笑不得,也让人质疑谷歌把这样一个实验性的功能直接嵌入核心产品的决定。 事情是这样的,《金融时报》问了谷歌AI一个问题,它回答说:“吃对的石头对健康有好处,因为石头里含有对身体健康重要的矿物质。”显然,谷歌的AI是误读了一篇《洋葱新闻》2021年4月的讽刺文章《地质学家建议每天至少吃一块小石头》。另一个搞笑的回答是建议在披萨酱里混入胶水,以增加“粘性”,防止奶酪滑落,这可能是基于11年前Reddit上的一个玩笑。 更严重的是,当被问及“美国有多少位穆斯林总统”时,AI回答说:“美国有一位穆斯林总统,巴拉克·侯赛因·奥巴马。”这显然是一个错误的回答,是一些政治对手关于前总统宗教信仰的谣言。 谷歌对此表示:“绝大多数的AI概览提供了高质量的信息,并带有深入挖掘的链接。我们看到的许多错误示例都是不常见的查询,也有一些示例是被篡改过的,或者是我们无法重现的。” 谷歌还强调:“我们在推出这一新体验前进行了广泛测试,正如我们在搜索中推出的其他功能一样,我们非常重视反馈。我们会根据内容政策适时采取迅速行动,并利用这些示例来改进我们的系统,其中一些改进已经开始推出。” 这些AI生成答案中的错误,归因于其技术基础中的“幻觉”或虚构现象。像谷歌的Gemini和OpenAI的ChatGPT这样的模型,是通过预测最可能的下一句话来工作,这基于它们所训练的数据。 尽管包括OpenAI、Meta和谷歌在内的生成式AI模型开发公司声称其最新版本的AI软件已减少了虚构现象的发生,但这些问题在消费者和商业应用中仍然令人担忧。 对于谷歌来说,其搜索平台因链接到原始来源而被数十亿用户信赖,“幻觉”问题尤为致命。谷歌母公司Alphabet的绝大部分收入来源于搜索及其相关广告业务。 近几个月来,谷歌CEO桑达尔·皮查伊面临内外部压力,要求加快发布新的面向消费者的生成式AI功能,因为谷歌被批评在这方面落后于竞争对手,尤其是拥有与微软130亿美元合作伙伴关系的OpenAI。 在本月的谷歌年度开发者大会上,皮查伊阐述了公司的新AI中心战略。谷歌在许多常见搜索结果顶部为数百万美国用户推出了Gemini生成的简短答案概览,标语是“让谷歌为你搜索”和“减轻搜索的负担”。 这些概览的初期问题,令人联想到今年2月对其Gemini聊天机器人的强烈反应,该机器人在其图像生成工具中创造了历史上不准确的不同种族和性别的描绘,如将女性和有色人种描绘成维京国王或二战时期的德国士兵。 谷歌对此道歉并暂停了Gemini模型的人物图像生成功能,至今未恢复。 皮查伊曾谈到谷歌在追赶竞争对手与保持道德规范以及作为被广泛依赖的搜索引擎之间的困境。上个月在斯坦福大学的一次活动中,他说:“人们在重要时刻来搜索,比如三个月大的孩子的药物剂量,所以我们必须做到正确……信任是难以赢得但易于失去的。” “当我们出错时,人们会告诉我们,消费者的要求最高……这是我们的北极星,我们的创新都围绕这一点展开,”皮查伊补充道。“这帮助我们改进产品并做到正确。”
人工智能为犯罪地下世界带来了巨大的生产力提升
某安全公司的资深威胁研究员表示,生成型人工智能提供了一套新的强大工具,使恶意行为者能够比以往任何时候都更高效地在国际上开展活动。 他说,大多数罪犯并不是“生活在某个黑暗的巢穴中策划事情”。“他们中的大多数是进行常规活动的普通人,这些活动需要生产力。” 去年,WormGPT 的兴起和衰落引起了广泛关注。这是一种基于开源模型并经过恶意软件相关数据训练的人工智能语言模型,旨在帮助黑客且没有任何道德规则或限制。但在去年夏天,它的创建者在吸引媒体关注后宣布关闭该模型。自那以后,网络犯罪分子大多停止了开发自己的人工智能模型,转而使用现有工具进行可靠的操作。 他解释说,这是因为罪犯追求轻松生活和快速收益。任何新技术若要值得采用的未知风险——例如更高的被捕风险,它必须比他们目前使用的工具带来更高的回报。 以下是罪犯现在使用人工智能的五种方式。 网络钓鱼目前,生成型人工智能在罪犯中最大的用例是网络钓鱼,即试图诱使人们泄露可用于恶意目的的敏感信息。一位人工智能安全研究员表示,研究人员发现,ChatGPT 的兴起伴随着网络钓鱼邮件数量的激增。 垃圾邮件生成服务,如 GoMail Pro,已经将 ChatGPT 集成其中,这使得犯罪用户能够翻译或改进发送给受害者的信息。安全专家说,OpenAI 的政策限制人们将其产品用于非法活动,但实际上很难监管,因为许多看似无辜的提示也可能被用于恶意目的。 OpenAI 表示,他们使用人类审查员和自动化系统的混合方法来识别和打击对其模型的滥用行为,并在用户违反公司政策时发出警告、临时停用和禁止使用。 OpenAI 的一位发言人告诉我们:“我们非常重视产品的安全性,并根据人们使用我们产品的方式不断改进我们的安全措施。”他补充说:“我们不断努力使我们的模型更安全,更强大,以防止滥用和越狱,同时保持模型的有用性和任务性能。” 在一份二月的报告中,OpenAI 表示他们关闭了五个与国家有关的恶意行为者相关的账户。 安全专家说,以前所谓的尼日利亚王子骗局,即有人承诺受害者一大笔钱以换取少量的预付款,相对容易被发现,因为信息中的英语笨拙且充满语法错误。语言模型使诈骗者能够生成听起来像是由母语者编写的信息。 他说:“说英语的人以前相对安全,因为你可以发现他们的信息。”而现在情况不再如此。 由于更好的人工智能翻译,世界各地的不同犯罪团伙也能够更好地交流。他表示,风险在于他们可能协调跨国的大规模行动,针对其他国家的受害者。 深度伪造音频骗局生成型人工智能使得深度伪造的发展迈出了重要一步,合成图像、视频和音频看起来和听起来比以往任何时候都更逼真。这一点没有被犯罪地下世界忽视。 今年早些时候,据报道,一名香港员工被骗走了2500万美元,犯罪分子使用公司首席财务官的深度伪造音频骗取了这名员工的信任,将钱转到了骗子的账户。“我们终于在地下市场看到了深度伪造技术的出现。”他说。他的团队发现有人在像Telegram这样的平台上展示他们的“作品集”,并以每张图像10美元或每分钟视频500美元的价格出售他们的服务。最受犯罪分子欢迎的深度伪造对象之一是某知名企业家。 虽然深度伪造视频仍然很复杂且人们更容易识别,但音频深度伪造并非如此。它们制作成本低廉,只需几秒钟的某人声音——例如从社交媒体上获取——就能生成令人信服的伪造音频。 在美国,有一些高调案例,人们接到亲人的恐慌电话,声称他们被绑架并要求支付赎金,结果发现打电话的是使用深度伪造音频录音的骗子。 他说:“人们需要意识到现在这些事情是可能的,人们需要意识到现在尼日利亚国王不再说破碎的英语。”他补充道:“人们可以用另一种声音给你打电话,并且可以让你陷入非常紧张的境地。” 他说,人们有一些方法可以保护自己。他建议亲人之间商定一个定期更改的秘密安全词,以帮助确认对方的身份。 “我给我奶奶设了密码。”他说。 绕过身份验证犯罪分子使用深度伪造的另一种方式是绕过“了解你的客户”验证系统。银行和加密货币交易所使用这些系统来验证他们的客户是真实的人。他们要求新用户拍摄自己手持物理身份证件的照片。但犯罪分子已经开始在像Telegram这样的平台上出售允许人们绕过这一要求的应用程序。 这些应用程序通过提供假冒或被盗的身份证,并将深度伪造图像覆盖在真实人的脸上,以欺骗Android手机摄像头上的验证系统。安全专家发现有人为加密货币网站提供这些服务,价格低至70美元。 他说,“它们仍然相对基础。”他们使用的技术类似于Instagram滤镜,将别人的脸替换成自己的脸。 “我们可以预期将来[犯罪分子]会使用实际的深度伪造……这样你就可以进行更复杂的身份验证。”他说。 越狱即服务如果你问大多数人工智能系统如何制造炸弹,你不会得到有用的回答。 这是因为人工智能公司已经设置了各种安全措施,以防止他们的模型输出有害或危险的信息。网络犯罪分子没有构建自己没有这些安全措施的人工智能模型,而是转向了一种新趋势:越狱即服务。 大多数模型都有使用规则。越狱允许用户操纵人工智能系统生成违反这些政策的输出——例如,编写勒索软件代码或生成可用于诈骗邮件的文本。 EscapeGPT 和 BlackhatGPT 等服务提供对语言模型 API 的匿名访问和频繁更新的越狱提示。为了应对这一不断增长的地下产业,OpenAI 和 Google 等人工智能公司经常需要堵塞可能允许其模型被滥用的安全漏洞。 这些越狱服务使用不同的技巧突破安全机制,例如提出假设性问题或用外语提问。人工智能公司与试图防止其模型失控的恶意行为者之间存在一场不断的猫捉老鼠游戏,后者不断提出越来越有创意的越狱提示。 这些服务正击中罪犯的痛点,他说。 “跟上越狱的步伐是一项繁琐的活动。你提出一个新的提示,然后你需要测试它,然后它会工作几周,然后 OpenAI 更新他们的模型。”他补充道。“越狱是对犯罪分子非常有吸引力的服务。” 人肉搜索和监控人工智能语言模型不仅是网络钓鱼的完美工具,也是人肉搜索(在网上披露某人的私人信息)的完美工具。他说,这是因为人工智能语言模型是通过大量互联网数据(包括个人数据)进行训练的,并且可以推断出某人可能的位置。 例如,你可以让一个聊天机器人假装成有经验的私人调查员,然后让它分析受害者写的文字,从这些文字中的小线索推断出个人信息——例如,根据他们上高中的时间推断他们的年龄,或者根据他们通勤时提到的地标推断他们住在哪里。互联网上的信息越多,他们就越容易被识别。 他是一个研究团队的成员,该团队去年发现大型语言模型(如 GPT-4、Llama…
Meta发布Chameleon模型预览,挑战多模态AI前沿
随着生成式AI领域的竞争转向多模态模型,Meta推出了一款名为Chameleon的新模型家族,以回应前沿实验室发布的各类模型。Chameleon被设计为原生多模态模型,而非将不同模态组件拼凑在一起。 虽然Meta尚未发布这些模型,但据报告显示,Chameleon在图像描述和视觉问答(VQA)等任务中表现出色,同时在纯文本任务中也具竞争力。 早期融合多模态模型 目前,创建多模态基础模型的流行方式是将为不同模态训练的模型拼凑在一起。这种方法称为“后期融合”,即AI系统接收不同的模态,用单独的模型编码它们,然后融合编码进行推理。尽管后期融合效果不错,但它限制了模型跨模态整合信息和生成交错图像与文本序列的能力。 Chameleon采用了“早期融合基于token的混合模态”架构,这意味着它从一开始就设计为从交错的图像、文本、代码和其他模态中学习。Chameleon将图像转换为离散的token,就像语言模型处理单词一样。它还使用了由文本、代码和图像token组成的统一词汇表,使得能够对包含图像和文本token的序列应用相同的transformer架构。 据研究人员介绍,与Chameleon最相似的模型是谷歌的Gemini,它也采用了早期融合token的方法。然而,Gemini在生成阶段使用了单独的图像解码器,而Chameleon则是一个端到端模型,既处理又生成token。 “Chameleon的统一token空间使其能够无缝推理并生成交错的图像和文本序列,无需模态特定的组件,”研究人员写道。 Chameleon的架构和训练 尽管早期融合非常有吸引力,但在训练和扩展模型时会面临重大挑战。为了克服这些挑战,研究人员采用了一系列的架构修改和训练技术。在论文中,他们分享了不同实验的细节及其对模型的影响。 Chameleon的训练分两个阶段进行,数据集包含4.4万亿个文本、图像-文本对以及交错的文本和图像序列。研究人员在超过500万小时的Nvidia A100 80GB GPU上训练了一个7-billion和一个34-billion参数版本的Chameleon。 Chameleon的表现 根据论文中报告的实验,Chameleon能够执行多种纯文本和多模态任务。在视觉问答(VQA)和图像描述基准测试中,Chameleon-34B达到了最先进的性能,超越了Flamingo、IDEFICS和Llava-1.5等模型。 研究人员表示,Chameleon在预训练和微调模型评估中,以更少的上下文训练示例和更小的模型尺寸达到了其他模型的性能。 多模态的一个折衷是单模态请求中的性能下降。例如,视觉-语言模型在纯文本提示上的性能往往较低。但Chameleon在纯文本基准测试中仍具竞争力,在常识推理和阅读理解任务中与Mixtral 8x7B和Gemini-Pro等模型相匹敌。 有趣的是,Chameleon能够为混合模态推理和生成解锁新能力,特别是在提示预期混合模态响应时。实验显示,用户总体上更喜欢Chameleon生成的多模态文档。 上周,OpenAI和谷歌都发布了提供丰富多模态体验的新模型。然而,他们并未发布有关模型的详细信息。如果Meta继续按照其策略发布Chameleon的权重,它可能成为私人模型的开放替代方案。 早期融合还可以为更高级的模型研究开辟新方向,特别是随着更多模态的加入。例如,机器人初创公司已经在实验将语言模型整合到机器人控制系统中。早期融合如何改进机器人基础模型也将是一个有趣的研究方向。 “Chameleon代表了实现能够灵活推理并生成多模态内容的统一基础模型愿景的重大一步,”研究人员写道。
微软疯了吗——键盘售价高达$450,还带AI按键
在微软活动中,除了推出新的AI功能和Surface设备外,公司还宣布了一款新的Surface Pro Flex无线键盘,该键盘兼容Surface Pro 8、9、10和11型号。这款官方称为“Surface Pro Flex Keyboard with Slim Pen”的无线键盘售价449.98美元,然而并不包括微软的Surface Slim Pen 2,只在键盘顶部设计了一个用于充电的凹槽。那么,既然没有笔,这款键盘究竟有什么功能呢? 据微软介绍,这款键盘在分离状态下可以连续打字长达41小时,配有一个专门的Copilot键和一个带有振动功能的触控板,用于提供触觉反馈。触控板可以感应不同的压力水平,应用程序可以利用这一功能来开发不同的操作。 这款键盘设计轻薄,尺寸为289x221x5.25毫米,重量为340克。专用的Copilot键可以召唤AI助手,并提供微软为Windows 11集成的全部功能,这些功能已为AI进行了全面改造。键盘材料选择了Alcantara聚酯混纺,尽管维护起来可能比较困难。键盘有黑色和亮蓝色两种颜色,将于6月18日上市。 有趣的是,考虑到这款名为“Surface Pro Flex Keyboard with Slim Pen”的键盘售价高达449.98美元,令人好奇为什么微软不将Surface Slim Pen 2与键盘捆绑销售,尤其是这款键盘专门为无线充电笔设计了一个凹槽。
OpenAI撤回有争议的决定:终止永久性非贬损协议
OpenAI周四撤回了一项有争议的决定,该决定要求前员工在签署永久性的非贬损协议和保留公司已归属的股权之间做出选择。 这份内部备忘录由CNBC获取,发给了前员工,并与现任员工分享。 备忘录中提到,前员工在离开OpenAI时,“可能被告知需要签署一份包含非贬损条款的一般释放协议,以保留已归属的股权单位(Vested Units)。” “无论你是否签署了协议,我们写信通知你,OpenAI没有也不会取消任何已归属的股权单位,”这份由CNBC查看的备忘录中写道。 备忘录还表示,OpenAI也不会执行员工可能签署的任何其他非贬损或非招揽合同条款。 “正如我们与员工分享的那样,我们正在对离职流程进行重要更新,”OpenAI发言人在一份声明中告诉CNBC。 “我们从未并且永远不会取消已归属的股权,即使人们没有签署离职文件。我们将从标准离职文件中删除非贬损条款,并将解除前员工现有的非贬损义务,除非非贬损条款是双向的,”声明补充道,前员工也将被告知这一变化。 “我们非常抱歉现在才更改这些条款;这并不反映我们的价值观或我们希望成为的公司,”OpenAI发言人补充道。 此前,Bloomberg首次报道了取消非贬损条款的消息。Vox首次报道了NDA条款的存在。 这一消息发布之际,OpenAI最近几周正面临越来越多的争议。 在上周一——OpenAI为ChatGPT推出一系列音频语音一周后,该公司宣布将停用一个名为“Sky”的流行聊天机器人语音。 “Sky”因与电影《她》中的女演员斯嘉丽·约翰逊的声音相似而引发争议。这位好莱坞明星声称,OpenAI未经她同意就使用了她的声音。 “我们听到了关于我们如何选择ChatGPT语音的问题,尤其是Sky,”这家微软支持的公司在X平台上发布消息称。“我们正在暂停使用Sky,以解决这些问题。” 上周,OpenAI解散了其专注于人工智能长期风险的团队,这支团队成立仅一年。熟悉情况的人士在周五向CNBC确认了这一消息。 该人士要求匿名,并表示一些团队成员将被重新分配到公司内的多个其他团队。 这一消息发布前几天,该团队的两位领导人,OpenAI联合创始人Ilya Sutskever和Jan Leike,宣布离职。Leike在周五写道,OpenAI的“安全文化和流程已经让位于光鲜的产品。” 去年成立的OpenAI Superalignment团队,专注于“科学和技术突破,以引导和控制比我们聪明得多的AI系统。”当时,OpenAI表示将在四年内将其计算能力的20%投入这一计划。 公司没有对这一消息发表评论,而是将CNBC引导至联合创始人兼CEO Sam Altman最近在X上的帖子。在帖子中,Altman表示对Leike的离职感到难过,并称公司还有更多工作要做。 上周六,OpenAI联合创始人Greg Brockman在X上发布了一份他和Altman共同署名的声明,声称公司已经“提高了对AGI(通用人工智能)风险和机会的认识,以便世界能够更好地为之做准备。”
AI巨头争相与Reddit合作:为何一个古老的论坛成为AI训练的“宝藏”?
在今年二月,谷歌宣布与Reddit达成每年6000万美元的协议,允许谷歌使用Reddit的数据来训练其AI系统。上周,OpenAI也宣布了类似的合作协议,无疑也具有相当的商业价值。 为何全球最强大的AI公司会如此热衷于一个传统用户眼中充满偏见和嘲讽的老旧论坛?这背后的原因与当今大型语言模型(LLM)的训练方式息息相关。因其独特的设置,Reddit恰好为LLM生成了完美的训练数据。 这家成立已有29年的公司正在借助这一波兴趣,进入了巨大的盈利浪潮——尽管这对用户而言代价不小。 LLM训练数据的需求 为了继续进步,像OpenAI的ChatGPT和谷歌的Gemini这样的LLM需要持续摄入大量的书面语言数据。尽管这些模型已经从维基百科、几乎所有已出版的书籍、公开网站以及任何可公开获得的语言数据中获得了惊人的能力,但这些数据并未完全捕捉到人类日常使用的口语化语言。 这也是为什么像ChatGPT和Gemini这样的系统的输出往往显得僵硬和过于正式。为了让AI更像人类,LLM迫切需要更多真实的人类写作。然而,很多这样的写作都被锁在私人空间中,比如WhatsApp对话、短信、个人邮件等。即使AI公司能够获得这些数据,它们也会面临另一个问题:大多数口语化写作未经过滤和注释。 相比之下,出版的书籍等至少经过了一定的筛选和编辑,质量有保证。而口语化写作则没有这样的过程,很难评估其质量和连贯性。 Reddit的独特价值 Reddit的设置巧妙地解决了这些问题。作为一个匿名平台,用户可以快速创建账户,用化名发布信息。这种匿名性鼓励了随意、往往充满嘲讽和未经过滤的写作。更重要的是,Reddit还有一个独特的投票系统,用户可以对每个帖子进行评价,优秀的帖子会被顶上去,而无用的垃圾信息、营销内容和极端观点会被埋没或删除。 这种投票系统使得Reddit的数据在AI训练中具有无与伦比的价值。Reddit不仅提供了丰富的口语化写作,还内置了一个评价这些写作质量的系统。 Reddit的盈利风潮 由于其数据的完美性,Reddit正从大公司的AI投资中获得巨大收益。社交网络通过内容许可交易积累了数亿美元的收入,这帮助它在今年早些时候成功上市,并可能吸引更多投资者。随着LLM的商品化,Reddit也有可能创建自己的LLM,凭借其丰富的训练数据,比大公司竞争对手以更低的成本构建模型。 潜在风险 尽管有巨大的机会,AI公司对Reddit的痴迷也带来了严重的风险。Reddit之所以成功,是因为用户认为它是一个分享真实、不加修饰意见的地方。但这种匿名性也意味着数据不具有代表性,充满偏见和不准确的信息。AI公司可能会利用Reddit的投票数据来展示什么是受欢迎的,而不是事实。 LLM擅长检测模式,这些系统可能会从Reddit学习到偏见、分裂言论和网络喷子的模式,并在其他上下文中重复这些模式。这些偏见难以被检测到,甚至连系统的创建者也难以发现。 未来的解决方案 解决这些偏见需要更多的数据,而不是更少的数据,也需要更好地注释现有的、更少极端的口语化对话数据。更多来自不同背景和观点的数据将有助于改进LLM的训练。然而,企业如谷歌和OpenAI从哪里获得这种数据仍不明确。Slack等公司的开放数据训练引发了用户的愤怒,使得AI公司面临两难境地。 尽管如此,AI公司仍愿意为Reddit的数据支付数亿美元,因为这是他们目前能找到的最佳选择。
马斯克:AI将取代所有工作,或许不是坏事
在周四的VivaTech 2024科技大会上,埃隆·马斯克表示,人工智能将取代所有工作,但这未必是坏事。 通过网络摄像头远程参与巴黎会议的马斯克描绘了一个未来的世界,在那里工作将变成“可选”的。“如果你想做一份像是爱好的工作,你可以去做,”马斯克说。“否则,AI和机器人将提供你所需的任何商品和服务。” 他说,要实现这种情况,需要“普遍的高收入”——不同于“普遍基本收入”(UBI)。UBI指的是政府向每个人提供一定数额的钱,无论他们的收入多少。 “不会缺少商品或服务,”他补充道。 在过去几年里,AI能力迅速提升,监管机构、公司和消费者还在摸索如何负责任地使用这项技术。随着AI在市场上的普及,各个行业和工作的变化引发了越来越多的担忧。 今年1月,麻省理工学院计算机科学与人工智能实验室的研究人员发现,工作场所采用AI的速度远比预期和担忧的要慢。报告还指出,大多数之前被认为容易被AI取代的工作在当时对雇主来说并不具有经济效益。 专家们普遍认为,许多需要高情商和人际互动的工作将不需要被取代,比如心理健康专业人士、创意工作者和教师。 马斯克一直直言不讳地表达他对AI的担忧。在周四的主旨演讲中,他称AI是他最大的恐惧。他提到伊恩·班克斯的“文化系列”小说,认为这是对由先进技术管理的社会的最现实和“最好的未来AI愿景”。 然而,在一个无工作的未来,马斯克质疑人们是否会感到情感上的满足。 “问题将真正成为意义——如果电脑和机器人能做得比你更好,你的生活是否还有意义?”他说。“我确实认为人类在其中可能仍有角色——我们或许能赋予AI意义。” 他还利用他的演讲时间敦促父母限制孩子能看到的社交媒体内容,因为“他们正在被一个最大化多巴胺的AI编程。”
微软新功能Recall引发隐私担忧,英国数据监管机构展开调查
英国数据监管机构(ICO)表示,正在“向微软进行询问”,了解其新功能Recall的具体情况。该功能每隔几秒钟就会对用户的笔记本电脑进行截图。 微软称,Recall将会在其即将推出的Copilot+ PC上独家提供,并且这些加密的截图将只存储在本地设备上。然而,隐私活动家们称这可能成为“隐私噩梦”,对此,ICO表示正在联系微软以了解该产品的安全措施。 Recall是一种“可选体验”,微软承诺将保障用户的隐私和安全。根据微软网站的信息,用户可以限制Recall收集的截图范围。公司声明称,“Recall数据只存储在本地,不会被微软或任何未获得设备访问权限的人获取。” 但是,ICO发言人指出,在推出任何新产品之前,公司必须“严格评估并减轻对人们权利和自由的风险”。他们表示:“我们正在向微软进行询问,以了解保护用户隐私的安全措施。” Recall能够搜索用户过去的所有活动,包括文件、照片、电子邮件和浏览历史。尽管许多设备已经具备这些功能,但Recall还会每隔几秒钟截图,并对这些截图进行搜索。 隐私顾问Kris Shrishak博士称:“这一功能可能成为隐私噩梦。设备使用期间频繁截图的事实本身可能对人们产生寒蝉效应。”微软表示,从设计之初就将隐私嵌入Recall,用户可以控制所捕获的内容。例如,用户可以选择不捕捉某些网站的内容,而在微软自有的Edge浏览器上进行的私人浏览也不会被捕捉。 Shrishak博士补充道:“在微软每隔几秒钟截图的情况下,人们可能会避免访问某些网站和查看文件,尤其是机密文件。” Keystone Law的数据和隐私专家Daniel Tozer表示,这一系统让他联想到Netflix的反乌托邦节目《黑镜》。“微软需要一个合法依据来记录和重新展示用户的个人信息,”他说。 Tozer还质疑,在视频通话或照片中出现的人是否会被给予选择是否同意截图的权利。“用户和访问控制将是微软必须重点关注的问题,”他说。 Mozilla隐私团队负责人Jen Caltrider建议,该计划意味着任何知道你密码的人现在可以更详细地访问你的历史记录。“包括执法机关的法庭命令,甚至是微软如果改变将所有内容保存在本地的决定,并将其用于定向广告或训练AI,”她说。 微软表示,Recall不会对包含密码或金融账户信息的截图进行审核或删除。Caltrider女士表示:“这些数据可能会出现在存储在你设备上的截图中,特别是当网站不遵循标准的互联网协议(如掩蔽密码输入)时。我不希望在运行Recall的电脑上做任何我不会在一车陌生人面前做的事情。”她补充道:“这意味着不再登录金融账户,查找敏感健康信息,提出尴尬的问题,甚至查找家庭暴力庇护所、健康诊所或移民律师的信息。”
Nvidia股价突破千元大关:AI芯片需求推动强劲财报
Nvidia股价在周三盘后交易中首次突破1000美元大关,这得益于该芯片制造商公布的超出分析师预期的财年第一季度财报。Nvidia的季度收益报告已成为投资者衡量近期市场AI热潮的风向标。本季度强劲的业绩表明,对Nvidia生产的AI芯片需求依然旺盛。CEO黄仁勋表示,公司将在今年晚些时候看到其下一代AI芯片Blackwell的收入。 股价在盘后交易中上涨7%。Nvidia还宣布将进行1拆10的股票分割。基于盘后的走势,周四股价有望创下新高。 每股收益:调整后为6.12美元,高于LSEG共识预期的5.59美元。收入:260.4亿美元,高于LSEG预期的246.5亿美元。Nvidia预计本季度销售额为280亿美元,而华尔街根据LSEG数据预测的每股收益为5.95美元,销售额为266.1亿美元。 截至4月28日的季度,Nvidia报告的净收入为148.8亿美元,或每股5.98美元,而去年同期为20.4亿美元,或每股82美分。 在过去一年中,Nvidia的销售额激增,因为谷歌、微软、Meta、亚马逊和OpenAI等公司购买了数十亿美元的Nvidia图形处理单元(GPU),这些是开发和部署人工智能应用所需的先进且昂贵的芯片。 Nvidia的最大和最重要的业务是其数据中心销售,包括AI芯片以及运行大型AI服务器所需的许多附加部件。Nvidia表示,其数据中心类别的收入从去年同期增长了427%,达到226亿美元。Nvidia首席财务官Colette Kress在与分析师的电话会议上表示,这主要得益于公司Hopper图形处理器的出货量,其中包括公司的H100 GPU。 “Kress在与分析师的电话会议上表示:“本季度的一个重要亮点是Meta宣布了他们最新的大型语言模型Lama 3,这一模型使用了24000个H100 GPU。” 她补充说,大型云提供商占Nvidia数据中心收入的“大约中40%”。 尽管公司报告了业务的三倍或更多的增长,黄仁勋表示,公司下一代AI GPU Blackwell将带来更多增长。 “今年我们将看到大量的Blackwell收入,”这位CEO在与分析师的电话会议上说,并补充说新芯片将在第四季度进入数据中心。 Nvidia还强调了其网络部件的强劲销售,这在公司构建成千上万芯片集群时越来越重要。Nvidia表示,其网络收入为32亿美元,主要来自其InfiniBand产品,比去年同期的销售额高出三倍多。 在成为大型公司构建AI的顶级供应商之前,Nvidia主要以制造3D游戏硬件而闻名。游戏收入在本季度增长了18%,达到26.5亿美元,Nvidia将此归因于强劲需求。 公司还销售用于汽车和高级图形工作站的芯片,这些业务仍远小于其数据中心业务。公司报告了4.27亿美元的专业可视化销售额和3.29亿美元的汽车销售额。 Nvidia表示,公司在本季度回购了77亿美元的股票,并支付了9800万美元的股息。Nvidia还表示,将其季度现金股息从每股4美分增加到10美分(未拆股前)。拆股后,股息将为每股1美分。