OpenAI最新发布的ChatGPT Connect Apps功能,让用户可以将Google Drive和Microsoft OneDrive与人工智能(AI)平台无缝集成。这个新功能让用户免去下载文件到设备然后再手动上传到AI平台的麻烦。然而,这项功能仅对ChatGPT Plus、Teams和Enterprise的付费用户开放。值得注意的是,OpenAI也开始逐步向全球用户推出GPT-4o。 OpenAI通过博客文章宣布了这一功能,同时还介绍了其他几个新功能。这些功能都是公司春季更新的一部分,其中还包括具备情感语音和计算机视觉能力的GPT-4o AI模型。现在,ChatGPT的付费用户可以通过全新的Connect Apps功能直接上传Google Sheets、Docs、Slides,以及Microsoft Excel、Word和PowerPoint文件到ChatGPT。 Connect Apps选项允许用户在Google Drive和Microsoft OneDrive(包括企业和个人账户)之间集成其主要的云存储服务。虽然公司尚未明确说明,但此功能应该在网站和移动应用程序上均可使用。用户只需点击文本框左边缘的回形针图标,打开菜单选项,即可看到可以连接的Google和Microsoft云存储服务。 连接后,用户可以直接上传文件,AI聊天机器人将处理这些文件。除此之外,OpenAI还为ChatGPT引入了交互式表格和图表功能。现在,当平台生成表格或图表时,用户可以与之互动并进行编辑。虽然目前还不能手动编辑,但用户可以通过添加提示词来重新组合表格或更改饼图的颜色,AI会自动完成。 在最终的图表或表格准备好后,用户还可以下载它们。OpenAI表示,交互功能支持多种图表类型,如果用户指定的类型不可用,聊天机器人将生成静态图表。 新功能一览 这一系列更新不仅提升了ChatGPT的功能,也为用户带来了更加便捷和智能的使用体验。
Author: aitrendtrackers@rengongzhineng.io
Reddit与OpenAI联手:开启互联网社区的AI新时代
保持互联网的开放至关重要,而开放的一部分意味着Reddit的内容需要对那些促进人类学习和研究如何在线建立社区、归属感和赋权的人们是可访问的。Reddit是一个独特且充满活力的社区,长期以来一直是互联网对话的重要空间。此外,利用大型语言模型(LLMs)、机器学习(ML)和人工智能(AI)能够让Reddit为每个人提供更好的用户体验。 为此,Reddit和OpenAI今天宣布了一项合作伙伴关系,以多种方式惠及Reddit和OpenAI的用户社区: OpenAI将把增强版的Reddit内容带入ChatGPT和新产品,帮助用户发现和参与Reddit社区。为此,OpenAI将访问Reddit的数据API,该API提供来自Reddit的实时、结构化和独特的内容。这将使OpenAI的AI工具更好地理解和展示Reddit内容,尤其是关于最新话题的内容。 这项合作关系还将使Reddit能够为用户和版主带来新的AI驱动功能。Reddit将基于OpenAI的AI模型平台来实现其强大的愿景。 最后,OpenAI将成为Reddit的广告合作伙伴。 “我们很高兴能与Reddit合作,通过提供独特的、及时和相关的信息来增强ChatGPT,并探索通过AI驱动功能丰富Reddit体验的可能性。” OpenAI首席运营官Brad Lightcap说道。 “Reddit已经成为互联网上最大的开放档案之一,里面有关于任何话题的真实、相关和最新的人类对话。将其纳入ChatGPT符合我们对连接互联网的信念,帮助人们找到更多他们在寻找的东西,并帮助新受众在Reddit上找到社区。” Reddit联合创始人兼首席执行官Steve Huffman说道。 OpenAI披露:Sam Altman是Reddit的股东。这项合作由OpenAI的首席运营官领导,并由其独立董事会批准。
科技如何重新定义我们与逝去亲人的连接:从HereafterAI到DeepBrain AI的情感革命
2016年,Tom收到了一个噩耗——他的父亲被诊断出患有绝症。 “我爱我的爸爸,我正在失去他。”加州奥克兰的Tom说道。他决心要充分利用与父亲剩下的时间。“我和他做了一个口述历史项目,花了很多很多时间录音记录他的生活故事。” 恰好那时Tom开始涉足AI领域,他的项目因此得到了发展。 “我想,如果我能制作一些互动的东西怎么样?”他说,“这样可以更丰富地保留他的记忆,和他那令人难忘的个性。”2017年,Tom的父亲Nick去世了,但在此之前,Tom已经将所录制的内容转化成了一个AI驱动的聊天机器人,能用他父亲的声音回答关于他生活的问题。 Tom花了很多时间记录他父亲Nick的记忆。这种利用AI让人“复活”的做法,在科幻小说中早已被探索,但现在AI技术的发展已经使之成为现实。2019年,Tom将他的聊天机器人转化为一个应用程序和一家名为HereafterAI的公司,允许用户为他们所爱的人做同样的事情。 他补充说,尽管聊天机器人并没有消除他因父亲去世而感受到的痛苦,但它确实给了他“比我本来能有的更多。” “这不是他变成了模糊的记忆。我有了这个精彩的互动编纂,可以随时查看。” 而使用HereafterAI的用户可以上传亲人的照片,在智能手机或电脑上使用应用程序时显示出来,但另一家将人们变成AI聊天机器人的公司走得更远。 韩国的DeepBrain AI通过拍摄几小时的视频和音频来捕捉一个人的面部、声音和举止,创建视频化的头像。“我们复制了这个人的外貌,与原人相似度达到96.5%”,DeepBrain的首席财务官Michael Jung说。“所以大多数家庭在与已故家庭成员的AI头像交谈时,不会感到不适。” 该公司认为,这种技术可以成为发展“良好死亡”文化的一个重要部分——我们提前为自己的死亡做准备,留下家族历史、故事和记忆,作为一种“活的遗产”。这一过程并不便宜,用户不能自己创建头像。相反,他们必须支付公司高达50,000美元的费用,用于拍摄过程和头像的创建。尽管成本很高,一些投资者对其普及前景充满信心,DeepBrain在最后一轮融资中筹集了4400万美元。然而,心理学家Laverne Antrobus说,在情感高涨的时候使用这种“悲伤科技”时需要非常小心。 “失去亲人是一种出其不意的打击,”她说。“你可能以为自己已经几乎恢复了,但某些事情可能会让你再次陷入悲伤。”她补充说,人们在使用已故亲人的聊天机器人之前不应急于求成。“你必须感到非常稳固才能使用这样的东西。要非常非常慢。” 我们每个人的哀悼方式都是独特的,但这并不意味着没有共同的经历。 其中之一就是繁琐的手续。你的亲人使用的银行、企业和社交媒体网站将需要你完成大量的文书工作,以关闭账户、终止直接支付、订阅等等。“我得联系超过两打的公司,给他们每一个打电话告诉他们我失去了亲人,”来自南德文的Eleanor Wood说,她的丈夫Stephen去年三月因重病去世。 “有些公司的反应很好,办事效率高。有些则完全无能,冷酷无情。在我情绪最低落的时候,他们制造了更多的压力和情绪困扰。”为了减轻近亲去世后的行政负担,Settld是一个英国在线平台,代表用户联系私营部门的组织。 用户上传所需的文书工作,和需要联系的每个人的列表。Settld随后自动编写并发送电子邮件。你可以随时登录查看相关公司是否已经回复,以及问题是否已经处理。 它与从银行到社交媒体公司再到公用事业公司等1400个机构合作。该平台由Vicky Wilson在2020年共同创立,她的祖母去世后产生了这个想法。 “我们能利用技术减轻这种行政负担越多越好,”她说。”当某人去世时,处理一个普通遗产平均需要300小时,涉及146项任务。 “通常需要大约九个月的时间来结束。我们认为,其中70%的工作可以并且应该自动化。” 悲伤科技行业,也称为“死亡科技”,根据科技新闻网站TechRound的报道,现在全球的价值已超过1000亿英镑。这一增长是由冠状病毒大流行所推动的,TechRound的主编David Soffer说。 “Covid让人们意识到生命的重要性,”他说,这有助于打破关于谈论死亡的禁忌。这反过来又让我们越来越接受技术作为哀悼过程的一部分。 “能够一次性通知很多人,通过声音录音或视觉信息来纪念人们,这些都很重要,”他说。 但Soffer先生认为,这一趋势具有更深远的意义。 “当技术发展解决技术问题时,那是好事,”他说。“但当它帮助解决非技术问题,如哀悼过程时,那才是技术的真正目的。” 然而,Antrobus女士警告说,在克服悲伤时,仍然没有什么可以替代人类支持。“我无法想象技术能取代悲伤中更传统的方面,这些方面包括与人亲近、感到被关怀、感到被赞赏。”
探索蒲公英健康的AI实时数据库:如何用数据颠覆GLP1-RA药物研究的未来?
美国的蒲公英健康公司最近弄了个大新闻,他们推出了一个全新的AI智能实时数据(RWD)库,专门针对促胰岛素样肽-1受体激动剂(GLP1-RA)。这可不是小打小闹,14号那天,这个数据库就像炸弹一样在医药圈引起了轰动。好家伙,现在不仅是赞助商和医生,连一些对这玩意儿感兴趣的科研人员都能查查这些药物在治疗代谢紊乱甚至更多病症上的信息了。 蒲公英的CEO,埃利奥特·格林在接受《药品科技》采访时候露了点儿心:这些数据能让赞助商免去跑那些费时费力的临床试验,直接了解药物的更多作用。格林还特别提了个例子,他说:“我们能分析出来,这药到底是对男性有效还是女性?有没有特定的年龄段反应更佳?通常这些问题只有在做临床试验的时候才会考虑。” 他还挺希望这些信息能够提前为赞助商所用,或者至少在他们决定要不要进行临床试验之前先看一眼。总之,这数据库不仅仅是个数据堆积,它几乎是医学研究的一大突破,有了它,药物研发的方向和策略可能都要变样了。 而且别以为这技术只在美国火。欧洲的点燃数据公司也没闲着,他们虽然是专门为临床试验服务的,但方法差不多,也是从病人的电子健康记录里提取数据,然后再用AI处理。这样一来,无论是在美国还是在欧洲,这种基于AI的RWD技术都在逐渐成为新的行业标杆。 总之,这个世界变化快,医疗界也不例外。现在不仅仅是要治病,更要用数据说话,用科技前行。对于那些总想领先一步的赞助商来说,抓紧了解和利用这些新工具,可能就是赢在起跑线上的关键。
尘埃落定:OpenAI 的首席科学家 Ilya Sutskever 在“Sam Altman被解职风波”后终于宣布离职
伊利亚·苏茨克弗(Ilya Sutskever)在宣布将离开他共同创立的公司OpenAI后,社交媒体上的情绪波动显而易见。苏茨克弗自2015年加入OpenAI以来,一直是该公司的科学家和领导者,他的离开标志着一个时代的结束。在其领导下,OpenAI推出了多个划时代的AI模型,包括著名的GPT系列。 现在,接替苏茨克弗的是雅各布·帕乔奇(Jakub Pachocki),OpenAI的研究总监。帕乔奇于2017年加入公司,最初是OpenAI Dota团队的研究负责人——这个团队构建了一个能够在Valve的Dota 2策略游戏中击败人类玩家的AI系统。随后,帕乔奇成为OpenAI推理和深度学习科学组织的研究负责人,之后晋升为研究主管。 目前还不清楚帕乔奇是否也将接任OpenAI的超级对齐团队的负责人,这个团队直到现在都由苏茨克弗和Jan Leike负责。据《纽约时报》报道,Leike也已从OpenAI辞职。 OpenAI在去年7月成立了超级对齐团队,以开发引导、调节和管理“超智能”AI系统的方法——即智力远超人类的理论系统。据《时报》报道,另一位OpenAI联合创始人约翰·舒尔曼(John Schulman)将进入监督角色。 TechCrunch了解到,超级对齐团队将在OpenAI的研究中“更深入”地整合,以“更好地实现其目标”。这可能意味着这个团队在未来可能会采取不同的形式。 OpenAI的总裁格雷格·布罗克曼(Greg Brockman)在X上写道,苏茨克弗“在帮助构建OpenAI今天的基础中发挥了关键作用”。 布罗克曼补充道:“我非常感激伊利亚作为我的联合创始人、我的朋友,以及我的民事仪式的主持人。” 他们共同规划了OpenAI今天的发展路径。从2015年底开始,OpenAI是一个非盈利组织,其使命是使AGI(人工通用智能)的发展顺利进行,但没有…… 随着OpenAI最新的旗舰生成AI模型GPT-4o的发布,以及公司广受欢迎的AI驱动聊天机器人ChatGPT的重大升级,苏茨克弗的离职在很多方面标志着去年11月开始的一段传奇的结束。 在感恩节前一周左右,苏茨克弗和OpenAI的首席技术官米拉·穆拉蒂(Mira Murati)接触了OpenAI以前的董事会成员,表达了对奥特曼行为的担忧。问题在于对OpenAI的方向的分歧;据说苏茨克弗对奥特曼匆忙推出AI驱动产品的做法感到沮丧,这牺牲了安全工作。 老董事会,包括苏茨克弗在内,决定突然解雇奥特曼,几乎没有通知任何人——包括OpenAI的大部分员工。在一份声明中,董事会表示,奥特曼在与董事会成员的沟通中“并不始终如一地坦诚”。 这一决定激怒了微软和OpenAI的其他投资者,使公司的股票销售面临风险,并导致大多数OpenAI员工——包括苏茨克弗,在一次显著的逆转中——誓言除非奥特曼迅速被复职,否则将辞职。 奥特曼最终被复职,老董事会的大部分成员辞职。据《时报》报道,自那以后,苏茨克弗就再也没有回到工作岗位;从去年11月起,帕乔奇实际上一直担任首席科学家。 苏茨克弗——他在多伦多大学获得计算机科学博士学位,在AI泰斗杰弗里·辛顿(Geoffrey Hinton)的指导下工作——在离开谷歌大脑(Google Brain)后于2015年加入OpenAI,这是谷歌的一个AI研究部门。苏茨克弗在AI领域取得了巨大的成就,他参与了第一个现代计算机视觉系统ImageNet和DeepMind的游戏AI系统AlphaGo的研发。 那么他现在将做什么呢?苏茨克弗还没有准备好透露。但他在X上的一份声明中说,他带着相信公司将构建“既安全又有益”的人工通用智能——一种能够完成人类能做的任何任务的AI——的信念离开OpenAI。 “我对接下来的项目感到兴奋——这是对我个人非常有意义的项目,我将在适当的时候分享细节,”苏茨克弗补充说。“在OpenAI共事是一种荣誉和特权,我将非常想念大家。”
IBM Granite模型开源:推动软件开发领域的革新浪潮
下载: GitHub – ibm-granite/granite-code-models: Granite Code Models: A Family of Open Foundation Models for Code Intelligence 开源大型语言模型(LLMs)并非易事。就拿开源倡议组织(OSI)来说,他们已经花了近两年时间致力于开发一个与AI兼容的开源定义。一些公司——例如Meta——声称已经开源了他们的LLMs(实际上并没有)。但现在,IBM已经实际行动起来。 IBM通过使用来自公开可用数据集的预训练数据来管理Granite代码的开源,例如GitHub Code Clean、Starcoder数据、公开代码库和GitHub问题。简而言之,IBM为避免版权或法律问题付出了极大的努力。Granite Code Base模型训练在3至4TB的代码数据和自然语言代码相关数据集上。 所有这些模型都在Apache 2.0许可下获得授权,用于研究和商业用途。正是最后一个词——商业——阻止了其他主要LLMs的开源。没有其他人想要分享他们的LLM宝藏。 但正如IBM研究部首席科学家Ruchir Puri所说:“我们正在通过发布性能最高、成本最有效的代码LLMs,改变软件的生成式AI格局,使开放社区能够无限制地创新。” 或许没有限制,但这并不意味着没有特定的应用目标。 正如IBM生态系统总经理Kate Woolley去年所言,这些模型并不是“试图成为面向所有人的所有事物。这不是关于为你的狗写诗。这是关于可以调整的、非常针对我们希望企业使用的商业用例的精选模型。具体来说,它们用于编程。” 这些仅限解码器的模型,训练覆盖了116种编程语言的代码,从30亿到340亿参数不等。它们支持许多开发者用途,从复杂的应用现代化到内存受限的设备上的任务。 IBM已经在其IBM Watsonx代码助手(WCA)产品中内部使用了这些LLMs,例如用于IT自动化的WCA for Ansible Lightspeed和用于现代化COBOL应用程序的WCA for IBM Z。虽然并非每个人都负担得起Watsonx,但现在任何人都可以使用IBM和Red Hat的InstructLab来操作Granite LLMs。 正如Red Hat的高级副总裁兼首席产品官Ashesh Badani所说,InstructLab将“降低面向混合云的GenAI的许多障碍,从有限的数据科学技能到所需的庞大资源。”其目的是降低希望使用LLMs的开发者的入门级别。 有多低?正如Matt Hicks在Red Hat峰会上所说:“就在一年前,还需要配备高端、相当奇特的硬件的功能,现在可以在笔记本电脑上运行。曾花费数亿美元的训练技术,现在只需几千美元就能复制。” 例如,除了InstructLab,你还可以使用Ollma在本地运行LLMs。正如Bala Priya C在KDnuggets中解释的那样,“使用Ollma,运行LLM所需的一切——模型权重和所有配置——都打包在一个Modelfile中。想象一下LLMs的Docker。”这些模型可在Hugging Face、GitHub、Watsonx.ai和Red Hat企业Linux (RHEL) AI等平台上获得。 IBM预计,程序员在使用Granite LLMs编写代码的同时,将通过使用这些LLMs来创建测试、发现和修复bug,节省时间和精力。“开发…
跨界登陆:Anthropic携手亚马逊AI助手Claude闪耀欧洲市场
近日,由亚马逊大力支持的人工智能初创公司Anthropic宣布,将于周二在欧洲推出其生成式AI助手Claude。这款AI助手将通过网络和iPhone应用程序面向个人及企业用户开放。 Anthropic还推出了一款面向商业用户的订阅服务,名为Claude Team,月费定价为28欧元(约合30美元),尚未包括增值税(VAT)。 Anthropic的首席执行官兼联合创始人Dario Amodei在周二的声明中表示:“我们在设计Claude时,非常重视准确性、安全性和隐私保护。”近年来,AI技术的迅猛发展引起了官方对就业和隐私影响的担忧。 此外,欧盟议会今年早些时候通过了全球首个旨在管理新兴技术的重大监管法规——AI法案。该法案旨在根据AI带来的风险等级,将风险类别划分为低、中、高和不可接受四种,以便应用相应的规则。 据Anthropic公司介绍,其Claude助手能够流利使用法语、德语、意大利语、西班牙语等多种欧洲语言。 虽然Claude.ai在英国的网络和移动端已经免费提供,但这是该产品首次面向欧盟以及挪威、瑞士和冰岛等非欧盟国家的用户推出。 Anthropic公司迅速成为市场上最受关注、最被炒作的生成式AI公司之一,其估值在最近的三月份高达184亿美元。同月,亚马逊宣布对该初创公司进行了27.5亿美元的投资,使其迄今对Anthropic的总投资额达到了40亿美元。 亚马逊对Anthropic的投资引起了一些监管机构的关注,他们担心这可能会削弱公司的独立性。 在英国,监管机构正在评估亚马逊对Anthropic的投资和合作关系,以及微软与生成式AI公司OpenAI和Mistral的交易,是否构成实质性合并,可能会减少竞争。 亚马逊表示,其与Anthropic的合作仅是有限的公司投资,并非合并。微软则否认其与AI初创公司OpenAI、Mistral的交易以及从Inflection的招聘等同于合并。
谷歌Gboard应用的语言模型创新:提升打字体验的隐私保护技术
谷歌的键盘应用程序Gboard通过使用语言模型(LM)来改善用户的打字体验,提供了下一个词预测、自动更正、智能编写、滑动输入和校对等功能。我们的研究人员优先考虑开发负责任的方法,既能提高Gboard的LM性能,又能维护最高的隐私标准。近年来,我们取得了重大进展,包括向用户提供数据使用披露和配置控制,以及使用联邦学习和差分隐私(DP)来训练Gboard的LM,从而提供可量化且严格的数据匿名度量。 Gboard的LM设计为使用预定义的常用词列表,称为词汇表。LM的性能取决于这个词汇表的质量,而词汇表随时间可能会变化。不属于词汇表的词被称为词外词(OOV)。OOV词出现的原因有几个,例如,某些语言的词汇表在Gboard中仍在开发中,所以OOV词的比例可能较高。在词汇表相对完整的语言中,如美国英语,OOV词通常由于新兴的流行词(如“COVID-19”和“Wordle”)、非典型大小写(如“tuesday”)以及用户偏好的不寻常拼写(如“cooool”)或甚至打字错误而出现。由于用户在键盘上输入的信息性质敏感,OOV发现是一项具有挑战性的任务。 今天,我们很高兴分享几种通过发现新的常用词来提高LM性能的方法,同时保持强大的数据最小化和DP保证。这些研究工作包括与语言学家合作揭示新的OOV词,使用隐私保护的联邦分析和其他DP算法,以及使用受信任执行环境(TEE)。 与语言学家的合作 发现OOV词的一种方法是通过与外部方负责任的合作获取经过审查的词汇表。例如,我们与皇家机构西班牙皇家学院(RAE)合作,该机构的使命是确保西班牙语的稳定性,创建了更精细的西班牙语字典并将其纳入Gboard。这使得对在西班牙打字的用户来说,自动更正更快、词汇推荐更好,从而改善了Gboard体验。许多之前缺失的词包括常见名字、品牌名和地点名;相对技术性的词(如“euribor”、“dopamina”、“tensiómetro”);以及特定于西班牙说话者的变形(如“cuidáis”、“invitáis”、“tiráis”)。 我们使用之前的训练数据重新训练我们的西班牙语LM,并通过联邦重新训练下游模型,取得了显著的质量改进。OOV词的总比例下降了7.3%。打字词在初始提交后被修改的频率降低,由于使用了更大的词汇表,打字速度也因此得到提升。 隐私保护的联邦分析另一种改进词汇表的方法是从用户设备中发现频繁的OOV词。这本身是一项具有挑战性的任务,因为用户在其设备上键入的内容性 质敏感。因此,我们需要精心设计机制,在数据收集和处理阶段保护用户的敏感信息。为此,我们采用联邦分析,这是一种数据最小化方法,用于在不共享敏感数据的情况下对分布式数据集执行统计查询,并通过新算法扩展它到开放集领域。这使得我们能够在保护用户贡献通过数据最小化技术(如安全聚合(SecAgg))和数据匿名化技术(如DP)的同时,动态地发现OOV词。 我们开发的一项技术是SecAggIBLT,它结合了可逆的布隆查找表(IBLT)和SecAgg。IBLT是一种线性数据结构,允许高效地插入、删除和查找键值对。在这里,用户将其OOV词插入到初始化为零的IBLT中,然后通过SecAgg进行聚合。这保证了即使是诚实但好奇的服务器,也只能看到聚合的IBLT(所有设备上的所有OOV词及其频率),而不是单个用户的贡献。这种方法为用户贡献提供了匿名性,并阻止服务器将特定词与单个用户联系起来。在数据处理阶段,中心DP应用于发现的OOV词及其计数,以确保对少数个体来说独特的OOV词永远不会被发布。DP使用参数(ε,δ)来量化隐私保护(数值越小,保护越强)。它提供了一个正式保证,即发布的数据模式在设备之间足够普遍,从而防止个体识别。 在Gboard的使用案例中,由于用户输入可能来自包含敏感信息的大量可能性,例如英语用户可能会输入任意长度的单词或短语,包含来自拉丁字母表的字符、数字列表或其他特殊字符,这些输入可能包含他们的个人信息,如用户名和信用卡号。因为SecAggIBLT能够发现这样独特的词,它依赖于服务器在SecAgg之后正确应用中心DP来确保用户隐私。本身它并不阻止好奇的服务器检查发现的OOV词,可能访问敏感信息。这要求我们开发算法,用更强的数据最小化和DP保证来发现频繁的OOV词。 为此,我们在现有的研究基础上开发了LDP-TrieHH,通过迭代构建字典树(前缀树)数据结构来学习频繁的单词。LDP-TrieHH在数据收集过程中提供了强大的数据最小化和严格的本地DP(LDP)保证。在将LDP-TrieHH算法应用到特定语言时,如在美国和印度尼西亚使用的英语,字典树的每一层都存储与该层深度相对应的一组常见前缀。字典树从根部开始迭代构建,最大长度为15。在每一层,我们收集来自一组用户的反馈,他们只通过在上一层学到的常见前缀后指示一个字符来贡献他们的数据。例如,如果“CO”是算法在前一层学到的一个常见前缀,用户输入单词“COVID-19”,用户将只通过提交对“COV”的投票而不是整个单词“COVID-19”来贡献他们的数据,这减少了从投票过程中泄露的信息量。 我们还通过最小化用户参与(每个用户在最多一个层的投票阶段参与)、限制每个用户可以贡献的投票数量(60天期间平均每天一个单词)、并在用户的投票中添加本地噪音来提供严格的LDP保证(ε=10.0每个单词),从而进一步保护用户投票的隐私。为此,我们使用子集选择机制,它在LDP下提供最优的效用-隐私权衡。在每一层,我们从大量用户(每层50万)中收集投票,这些投票经过聚合和阈值处理,以过滤掉不常见的前缀。通过这一额外的数据处理步骤,通过聚合分析隐私放大,LDP-TrieHH提供了每个词的中心DP保证(ε=0.315,δ=1e-10),每个用户在60天内最多贡献60个单词(即平均每天一个单词)。为了提高发现词的覆盖率,我们连续运行LDP-TrieHH多次,构建几个具有不同用户集的字典树。在后续运行中,我们要求用户只贡献尚未从前几次运行中学到的OOV词,以更有效地利用每个用户的贡献预算。通过LDP-TrieHH,我们能够发现占英语和印尼语OOV词的16.8%和17.5%。此报告提供了更多细节。 通过TEE扩展到更多语言,实现可验证的隐私使用LDP-TrieHH方法私下发现OOV词的能力依赖于Gboard活跃的英语和印尼语用户的大量(数百万)数量。然而,对于使用量较小的语言,LDP-TrieHH的准确性将不可避免地较低。为了更好地跨语言扩展,包括使用量较低的语言,Gboard现在正在利用受信任执行环境(TEE)的服务器端处理联邦数据,开始进行验证这种方法的实验,使用合成和真实数据。 TEE是常见处理器的安全扩展,通过嵌入的秘密加密密钥(由硬件制造商签名)来促进工作负载的保密性、完整性和可验证性。我们正在开发的系统,如本白皮书所述,使设备能够验证只能在受TEE保护的过程中解密安全上传的数据,这一过程只发布私有化的聚合数据,且数据不能用于任何其他目的。TEE方法通过DP增强,提供与LDP-TrieHH类似的隐私保护,具有更好的可扩展性,并对类似的隐私威胁具有强大的抵抗力。未来几个月将有更多更新。
惊爆:苹果公司即将与OpenAI达成协议,将ChatGPT引入iPhone
据知情人士透露,苹果公司即将与初创企业OpenAI达成协议,将后者的技术应用于iPhone,这是其将人工智能功能引入设备的广泛举措的一部分。 双方一直在敲定使用ChatGPT功能于苹果iOS 18系统的协议条款,这是下一代iPhone操作系统,上述人士要求匿名,因为此事尚未公开。此外,苹果还与Alphabet Inc.的Google就许可其Gemini聊天机器人进行了谈判。这些讨论尚未达成协议,但仍在进行中。 OpenAI的协议将使苹果能够在计划下月宣布的一系列新AI功能中提供一个受欢迎的聊天机器人。据彭博社4月报道,与OpenAI的讨论已加强。尽管如此,目前还不能保证协议会立即宣布。 苹果、OpenAI和Google的代表均拒绝对此发表评论。 苹果计划在6月举行的年度全球开发者大会上,在人工智能领域大放异彩。据彭博社报道,作为推动力的一部分,该公司将通过配备自家处理器的数据中心运行即将推出的人工智能功能。 去年,苹果首席执行官蒂姆·库克表示,他个人使用了OpenAI的ChatGPT,但他补充说,“还有一些问题需要解决。”他承诺,新的AI功能将在“非常周到的基础上”引入苹果的产品。 在上周的苹果财报电话会议上,他辩称苹果在AI领域将具备优势。 库克在财报电话会议中表示:“我们相信人工智能的变革力量和前景,并且我们相信我们拥有的优势将使我们在这个新时代中脱颖而出,包括苹果独特的无缝硬件、软件和服务整合。”
Google与哈佛大学的科学家团队共同创造了一张人脑中一个极小部分的精细地图
一支由哈佛大学和谷歌的科学家领导的团队创建了一张单个立方毫米人脑的三维纳米级分辨率地图。尽管这张地图只涵盖了整个大脑的极小一部分——整个大脑的体积是它的一百万倍——这一小块包含了大约57,000个细胞、约230毫米的血管和近1.5亿个突触。这是迄今为止创建的人类大脑的最高分辨率图片。 为了制作这样详细的地图,团队必须将组织样本切成5000片,并使用高速电子显微镜进行扫描。然后,他们使用了一个机器学习模型帮助电子地将切片重新拼接在一起并标记特征。仅原始数据集就占用了1.4 petabytes的空间。艾伦脑科学研究所的计算神经科学家Michael Hawrylycz表示:“这可能是神经科学中所有工作中最依赖计算机的。”他指出,其中涉及了大量的工作量。 与现有的许多其他脑图谱相比,大部分提供的是更低分辨率的数据。在纳米级别上,研究者可以一次追踪一个神经元到突触的大脑布线,即它们相连的地方。“要真正理解人类大脑是如何工作的,如何处理信息,如何存储记忆,我们最终需要一张具有那种分辨率的地图,”谷歌的高级研究科学家兼论文的合著者Viren Jain表示。这份数据集及其论文的预印本版本已于2021年发布。 脑图谱有许多种形式。有些揭示了细胞是如何组织的,其他的则涵盖了基因表达。这份专注于细胞之间连接的领域称为“连接组学”。大脑的最外层大约包含160亿个神经元,它们彼此连接形成数万亿的连接。一个单一的神经元可能从数百甚至数千个其他神经元那里接收信息,并发送信息给类似数量的神经元。这使得追踪这些连接成为一个极其复杂的任务,即使只是在大脑的一小块区域中。 为了创建这张地图,团队面临了许多挑战。第一个问题是找到大脑组织样本。大脑在死后很快就会开始恶化,所以尸体组织行不通。团队使用的是在进行旨在帮助控制她癫痫的脑手术中切除的一块组织。 研究者们获得样本后,必须小心地将其保存在树脂中,以便将其切成每片厚度大约为人类头发千分之一的薄片。然后他们使用专为此项目设计的高速电子显微镜对这些切片进行成像。 接下来是计算挑战。“你有所有这些在三维空间中四处穿行、形成各种不同连接的线路,”Jain说。谷歌团队使用了机器学习模型来将切片重新拼接在一起,将每一片与下一片对齐,对线路进行颜色编码,并找到连接。这比听起来要困难。“如果你犯了一个错误,那么与该线路相连的所有连接现在都是错误的,”Jain说。 “能够对任何人类大脑样本进行这样深入的重建是一个重要的进步,”马里兰大学的神经科学家Seth Ament说。这张地图是“我们现在能获得的最接近基础真理的东西。”但他也警告说,这是从一个单一个体取得的单一大脑样本。 这张地图可以在一个名为Neuroglancer的网络平台上免费获取,旨在成为其他研究者用来进行自己发现的资源。“现在任何对以这种详细级别研究人类皮层感兴趣的人都可以亲自深入数据。他们可以校对某些结构以确保一切正确,然后发布他们自己的发现,”Jain说。(预印本已至少被引用了136次。) 团队已经发现了一些意外。例如,一些从一个神经元到另一个神经元传递信号的长触须形成了“漩涡”,在那里它们缠绕在一起。轴突通常形成一个突触来传递信息给下一个细胞。团队识别出单个轴突形成了重复连接——在某些情况下,是50个单独的突触。为什么会这样还不清楚,但强大的联系可能有助于促进对某些刺激的非常快速或强烈的反应,Jain说。“这是关于人类皮层组织的一个非常简单的发现,”他说。但“我们之前不知道这一点,因为我们没有这种分辨率的地图。” 数据集充满了惊喜,哈佛大学的神经科学家Jeff Lichtman,他帮助领导了这项研究。他说:“里面有太多与你在教科书上读到的内容不相符的东西。”研究人员可能没有解释他们所看到的,但他们有很多新的问题:“这就是科学前进的方式。” 看看: Gallery | H01 Release