在这个信息爆炸的时代,想要DIY一个大语言模型(LLM)?有点头疼对吧。不过,别急,有个新工具出现了,名叫“claude-llm-trainer”,由Matt Schumer亲自推出。这个工具就像是开启了作弊模式,允许你轻松创建定制的LLM。你只需要简单描述你希望模型完成的任务,剩下的就交给它了。它会利用Claude 3自动完成数据生成和模型训练的全部过程。最棒的部分?它是建立在一个开源框架上的,这意味着你可以享受到极大的灵活性。默认情况下,它会用LLaMA 2 7B模型,但如果你想尝试其他的模型,比如Mistral 7B,也是分分钟的事。 搞模型,真的是个技术活。得先搞数据集,清洗、格式化,然后选个模型,写训练代码,开搞。这还是最理想的情况呢。这个项目的初衷,就是探索一种新的实验性流程,目的是为了训练出一个高性能的任务特定模型。我们试图把所有的复杂性都给抹平,让从零到有、从想法到一个性能强劲的、训练完毕的模型变得尽可能简单。 只需输入你的任务描述,系统就能从零开始生成数据集,自动解析成正确的格式,并且为你精调LLaMA 2或GPT-3.5模型。 功能特色: https://github.com/mshumer/gpt-llm-trainer
谷歌刚刚宣布了他们的新招,专门为那些喜欢计划一点点或根本不计划的旅行者准备的SGE和Maps旅行功能
夏天的计划正在升温,谷歌为此推出了新的Maps和SGE旅行功能。 周三,谷歌宣布了在SGE(谷歌的AI驱动搜索实验平台)中创建行程计划的能力,以及在Maps中寻找推荐和自定义列表的新方式。 SGE,即搜索生成体验,是一个测试与搜索相关的生成式AI功能的平台。用户可以注册来预览谷歌对搜索未来的构想——特别是针对查询的AI生成响应。对于那些还没有选择加入的用户来说,它还没有正式上线,但谷歌已经在悄悄地向非测试者展示AI驱动的搜索结果。通过SGE的旅行计划功能,你可以要求它根据网络上包括餐厅和网站的商业档案、图片和用户评论的推荐来规划行程。 SGE的行程包括指向旅行信息来源的链接,至少它是在引用它的工作,但我们无法想象旅行博客和出版物会对SGE响应占据如此多的搜索版面感到多么高兴。对于尚未向公众开放的工具来说,剽窃及其对SEO流量的影响一直是主要关注点。但对用户而言,它在网上更容易找到信息的潜力是不可否认的。 谷歌地图的新功能也旨在帮助人们规划旅行。现在,当你搜索一个城市时,Maps会向你展示来自顶级旅行网站如孤独星球和《纽约时报》的“36小时”系列以及谷歌地图用户的“精选推荐列表”。这也适用于谷歌按“流行”,“顶级”和“珍宝”组织的餐厅列表。 当你在谷歌地图上搜索一个城市时,找到推荐列表。图片来源:谷歌对于那些致力于策划自己列表的Maps用户,现在也有新的方式来自定义他们最喜欢的地方。现在,你可以按时间顺序组织列表上的地方,并对它们进行排名,以便你在进行中更新列表。用户还可以在社交媒体上分享他们策划的列表。 SGE旅行行程在美国通过加入Search Labs可用。列表推荐将于本周开始为美国和加拿大的用户显示,列表自定义功能将于本月晚些时候在iOS和Android上全球推出。
Databricks 这回砸下重金,整整1000万美金投入了他们全新的 DBRX 生成式 AI 模型
如果你想提高你的大型科技公司的知名度,并且有1000万美元可花,你会怎么花?是投资超级碗广告,还是赞助F1车队? 你也可以选择用这笔钱训练一个生成式人工智能模型。虽然这不是传统意义上的营销,但生成式模型无疑是吸引眼球的利器——并且越来越多地成为指向供应商主要产品和服务的渠道。 看看Databricks最新公布的DBRX生成式AI模型,这可不是闹着玩的。它类似于OpenAI的GPT系列和Google的Gemini,既可以在GitHub上找到,也可以在AI开发平台Hugging Face上用于研究和商业用途,DBRX有基础版(DBRX Base)和经过特别调优的版本(DBRX Instruct),能够在公共的、自定义的或其他专有数据上运行和调整。 Databricks的Naveen Rao副总裁在接受TechCrunch采访时说:“DBRX被训练用来提供关于各种主题的有用信息。DBRX针对英语使用进行了优化和调整,但也能够进行多种语言的对话和翻译,比如法语、西班牙语和德语。” Databricks将DBRX描述为“开源”,就像Meta的Llama 2和AI初创公司Mistral的模型一样“开源”。(这些模型是否真正符合开源定义,目前还有激烈的讨论。) Databricks表示,他们花了大约1000万美元和两个月的时间来训练DBRX,并声称(引用新闻稿的话)“在标准基准测试上胜过所有现有的开源模型”。 但是,营销的问题来了——除非你是Databricks的客户,否则使用DBRX非常困难。 因为要在标准配置中运行DBRX,你需要一台至少配备四个Nvidia H100 GPU的服务器或个人电脑(或任何其他总计约320GB内存的GPU配置)。单单一个H100的成本就高达数千美元——很可能更多。这对于平均企业来说可能是小菜一碟,但对于许多开发者和独立创业者来说,这已经遥不可及了。 当然,你可以在第三方云上运行这个模型,但硬件要求依然很高——例如,Google Cloud上只有一种实例类型包含H100芯片。其他云可能成本较低,但总的来说,运行这样庞大的模型今天并不便宜。 此外,还有一些细节问题。Databricks表示,拥有超过7亿活跃用户的公司将面临“某些限制”,这与Meta对Llama 2的限制相似,所有用户必须同意条款,确保他们“负责任地”使用DBRX。(截至发稿时,Databricks尚未提供这些条款的具体内容。) Databricks提出其Mosaic AI Foundation Model产品作为解决这些障碍的管理解决方案,除了运行DBRX和其他模型外,还提供了一个用于在自定义数据上微调DBRX的训练堆栈。客户可以使用Databricks的模型服务私下托管DBRX,Rao建议,或者他们可以与Databricks合作,将DBRX部署在他们选择的硬件上。 Rao补充说:“我们专注于使Databricks平台成为定制模型构建的最佳选择,因此Databricks的最终收益是我们平台上的更多用户。DBRX是我们一流的预训练和调优平台的展示,客户可以利用这个平台从零开始构建自己的模型。这是客户开始使用Databricks Mosaic AI生成式工具的简单方法。并且,DBRX本身就非常强大,可以针对特定任务进行调整,以获得比大型封闭模型更好的性能和更经济的成本。” Databricks声称DBRX的运行速度是Llama 2的两倍,部分原因是它采用了专家混合(MoE)架构。MoE——与Mistral的新模型和Google最近宣布的Gemini 1.5 Pro共享的架构——基本上是将数据处理任务分解为多个子任务,然后将这些子任务委派给较小的、专业的“专家”模型。 大多数MoE模型有8个专家。DBRX有16个,Databricks表示这提高了质量。 然而,质量是相对的。 虽然Databricks声称DBRX在某些语言理解、编程、数学和逻辑基准测试上胜过Llama 2和Mistral的模型,但在数据库编程语言生成等小众用途之外,DBRX在大多数领域都不及目前领先的生成式AI模型,OpenAI的GPT-4。 现在,正如一些社交媒体上的人指出的,DBRX和GPT-4,后者的训练成本显著更高,非常不同——可能差异太大,不值得直接比较。将这些大型、由企业资助的模型与领域中最好的模型进行比较是重要的,但也应该指出它 们的区别,比如DBRX是“开源”的,并且针对一个明确的企业受众。 同时,也不能忽视DBRX在普通人运行起来的成本上几乎与旗舰模型如GPT-4接近,其训练数据不是公开的,它在最严格的定义上也不是开源的。 Rao承认DBRX也有其他限制,即它——像所有其他生成式AI模型一样——可能会因为Databricks在安全测试和红队操作中的工作而“幻觉”式地回答查询。因为该模型仅仅被训练以将某些词或短语与特定概念相关联,如果这些关联不完全准确,它的回应也不会总是准确的。 此外,DBRX不是多模态的,与一些较新的旗舰生成式AI模型不同,包括Gemini。(它只能处理和生成文本,不能生成图片。)我们也不知道用于训练它的具体数据来源;Rao只透露没有使用Databricks客户数据来训练DBRX。 “我们在训练DBRX时使用了来自多种来源的大量数据集。”他补充说,“我们使用了社区熟知、喜爱并每天使用的开放数据集。” 我问Rao是否有任何DBRX训练数据集是版权或许可的,或者显示出明显的偏见(例如种族偏见),但他没有直接回答,只是说:“我们对使用的数据非常小心,并进行了红队演练,以改善模型的弱点。”生成式AI模型倾向于重复训练数据,这是商业用户对于使用未经许可、版权或明显偏见数据训练的模型的一个主要担忧。在最坏的情况下,用户可能因不知不觉地将模型中的侵权或有偏见的作品纳入其项目而面临道德和法律风险。 一些训练和发布生成式AI模型的公司提供覆盖可能侵权引起的法律费用的政策。Databricks目前没有——Rao说公司正在“探索”可能提供此类支持的情景。 考虑到DBRX在其他方面的不足,这个模型似乎很难吸引除当前或潜在Databricks客户之外的人。Databricks在生成式AI领域的竞争对手,包括OpenAI,提供的技术同样甚至更加引人注目,价格也非常有竞争力。并且,许多生成式AI模型比DBRX更接近人们通常理解的开源定义。 Rao承诺Databricks将继续完善DBRX,并随着公司的Mosaic Labs R&D团队——DBRX背后的团队——探索新的生成式AI途径而发布新版本。 “DBRX在推动开源模型空间向前发展,并挑战未来的模型建造得更高效。”他说。“我们将发布变体,因为我们应用技术来提高输出质量,从可靠性、安全性和偏见方面……我们将开放模型视为一个平台,我们的客户可以利用我们的工具在其上构建定制功能。” 鉴于DBRX目前相对于其同行的位置,这是一条异常漫长的道路。
Adobe最近推出了Firefly AI的结构参考以及面向品牌的GenStudio
Adobe 最近以 Firefly AI 的结构参考和面向品牌的 GenStudio 为旗帜,加入了生成式人工智能的浪潮。这个动作象征着 Adobe 向创意界发射了一颗照明弹,为品牌和设计师们在创作旅程中照亮了一条全新的道路。 作为创意软件巨头,Adobe 在 2023 年 3 月推出了商业安全的 Firefly AI 图像生成和编辑模型,成为首批跳上生成式人工智能潮流的大公司之一。数月之后,继 Firefly 2 发布后,Adobe 现在推出了全新的 “GenStudio” 应用,旨在帮助企业用户和品牌为广告活动创建生成式人工智能资产,并将它们在线上或通过其数字分发渠道发布。 此外,Adobe 还引入了一个新功能,希望能够给予客户更多控制权——因此,给用户更多生成人工智能图像的理由。 这个被称为 “结构参考” 的新功能允许 Adobe Firefly 独立的文本到图像生成器应用的用户上传一张图像,这张图像将指导后续图像的生成,不是在风格或内容上,而是在图像的布局以及其中的物体和角色的排列上。 这些功能首次在本周举行的 Adobe Summit —— 公司年度会议上公开揭幕。会议于 2024 年 3 月 25 日至 28 日在拉斯维加斯的威尼斯会议展览中心举行。 GenStudio 设计为品牌的中心枢纽,为品牌提供一套全面的工具,用于规划市场营销/广告/促销活动,创建和管理内容,激活跨渠道的数字体验,并衡量性能。 Adobe 希望这个新应用 —— Creative Cloud 订阅应用套件的一部分 —— 能够简化和优化内容生成过程。…
微软刚刚宣布Pavan Davuluri担任新的Windows和Surface负责人
微软今天宣布任命Pavan Davuluri为新的Windows和Surface负责人。在Panos Panay去年意外离职前往亚马逊后,微软将Windows和Surface团队分拆,由两位不同的领导负责。Davuluri接管了Surface的硅片和设备工作,而Mikhail Parakhin领导了一个专注于Windows和网络体验的新团队。现在,随着Parakhin“决定探索新角色”,Windows和Surface都将由Davuluri负责。 《The Verge》获得了微软体验和设备负责人Rajesh Jha的一份内部备忘录,概述了新的Windows组织架构。微软现在再次将其Windows和设备团队合并。“这将使我们能够采取整体方法来构建跨Windows客户端和云的硅片、系统、体验和设备,为这个AI时代服务,”Jha解释说。 Davuluri于去年12月与AMD CEO Lisa Su一同上台。Pavan Davuluri现在是微软Windows和Surface团队的负责人,直接向Rajesh Jha汇报。Davuluri在微软工作了23年以上,深度参与了公司与Qualcomm和AMD合作创建自定义Surface处理器的工作。 Mikhail Parakhin现在将在过渡期间向Kevin Scott汇报,但他在微软的未来看起来不确定,而且很可能这些“新角色”将是公司外的。Parakhin在接手更广泛的Windows工程职责和对Microsoft Edge的更改之前,一直在紧密地参与Bing Chat的工作。 在Google DeepMind联合创始人、前Inflection AI CEO Mustafa Suleyman加入微软成为新AI团队CEO几天后,Windows团队发生了重大调整。微软还聘请了包括共同创始人Karén Simonyan在内的一批Inflection AI员工,Simonyan现在是微软AI的首席科学家。因此,大多数Inflection的员工加入微软AI,这被视为一次小心避开直接监管审查的人才收购。 Suleyman现在是微软AI的CEO,这是一个新团队,将负责公司面向消费者的AI产品,如Copilot、Bing和Edge。Suleyman直接向微软CEO Satya Nadella汇报,看起来他本来是设定管理Mikhail Parakhin的,但现在不再是这样了。 Jha表示,Windows团队将“与微软AI团队在AI、硅片和体验方面紧密合作”,但这些新领导人将不得不导航一些潜在的重叠领域,这会很有趣。微软AI现在负责Edge,这是Windows体验的关键部分。 以下是Rajesh Jha的备忘录全文: 我想分享有关Windows和网络体验(WWE)团队的更新,继上周的公告和创建微软AI组织之后。 Mikhail Parakhin决定探索新角色。Satya和我感谢Mikhail的贡献和领导,并感谢他为帮助微软在新AI浪潮中领先所做的一切。他将在支持WWE过渡期间向Kevin Scott汇报。 作为这一变化的一部分,我们将Windows体验和Windows + 设备团队作为体验 + 设备(E+D)部门的核心部分合并在一起。这将使我们能够采取整体方法来构建跨Windows客户端和云的硅片、系统、体验和设备,为这个AI时代服务。Pavan Davuluri将领导这个团队并继续向我汇报。Shilpa Ranganathan和Jeff Johnson及其团队将直接向Pavan汇报。Windows团队将继续与微软AI团队在AI、硅片和体验方面紧密合作。 网络体验团队将向新的微软AI组织中的Mustafa汇报。 Jordi Ribas将领导搜索、地图和平台,Andrey Proskurin、Fatima Kardar和Nick Lee向他汇报。 Rukmini Iyer将领导广告,Paul Viola和Weiqing Tu向她汇报。…
OpenAI最近推出的Sora,在NVIDIA H100上生成1分钟视频大约需要12分钟的时间
根据Factorial基金的估计,OpenAI的Sora在NVIDIA H100上每小时可以生成5分钟视频,相当于每天每个H100可以生成120分钟的视频。 报告进一步补充说,为了支持TikTok和YouTube上的创作者社区,大约需要89,000个NVIDIA H100 GPU。将TikTok和YouTube的AI生成视频生产量合并起来,每天由AI生产的视频总量达到1070万分钟。 然而,考虑到实际使用率、高峰需求和繁忙流量等因素,高峰需求时估计需要的Nvidia H100 GPU数量大约为720,000个,这比基于简化假设的初步计算显著增加。 创作者可能会生成多个候选视频,然后再选择最佳视频,导致平均每上传一个视频就有两个候选视频。这一因素也使得GPU需求翻倍。 在最近接受《华尔街日报》采访时,CTO Mira Murati分享说,OpenAI将在今年晚些时候使Sora公开可用。Sora在2月份推出时,用户对其超现实视频给予了高度评价,许多人称之为视频领域的“ChatGPT时刻”。 该模型在2月份展示,可以根据文本提示生成现实场景,不久将开放给公众使用。初步推出将主要面向视觉艺术家和电影制作人。Murati还透露了计划将声音和编辑灵活性纳入Sora生成的视频。 OpenAI正在向好莱坞推广Sora。据彭博社报道,ChatGPT的创造者已经安排了下周在洛杉矶与好莱坞工作室、媒体高管和人才经纪公司的会议,以在娱乐产业中形成合作伙伴关系,并鼓励电影制作人将其新的AI视频生成器整合到他们的作品中。
微软正在改进其AI驱动的Copilot在Microsoft Teams中的工作方式,为会议聊天、总结等引入了新的召唤助手方式
微软正在改进其AI驱动的Copilot在Microsoft Teams中的工作方式,为会议聊天、总结等引入了新的召唤助手方式。 Copilot已经能够总结Teams会议内容,但在接下来的几个月里,它将把口头转录和书面聊天结合在一起,形成单一视图,使你更容易追赶可能错过的会议。 Teams中的Copilot也在改善聊天消息的撰写功能,允许Teams用户以新的方式重写消息。“Copilot可以调整你的消息,增加一个行动号召,或者像海盗那样说话,”微软在一篇博客文章中说。“不久,你还将能够根据Teams聊天的上下文生成新消息。” 对于直接拨打到手机的传统Teams电话,智能通话回顾“将在下个季度与Teams Premium一起普遍推出”,据微软称。智能通话回顾将自动记录通话中的笔记,让你在不用尴尬记录笔记的情况下总结电话内容并查看后续行动。 所有这些对Microsoft Teams的AI改进虽然各自不大,但它们加起来让Teams中的Copilot变得更加灵活。Teams中的Copilot集成已经是微软在Office应用中AI集成的较为出色的例子之一,能够快速回顾会议内容,感谢总结,甚至能告诉你会议中何时提到了你。 除了微软在Teams中持续推动Copilot之外,微软还在Teams内部推出了新的混合会议功能,旨在改善远程和室内参与者的体验。Teams Rooms中的IntelliFrame功能的自动相机切换将在今年晚些时候推出。它将使用AI选择会议室中最佳的相机,可能是房间相机甚至是笔记本电脑。它旨在自动切换相机视图,以便远程参与者获得最佳视角,尤其是如果特定相机被遮挡的话。 扬声器识别也将在4月预览时对Teams Rooms中的任何麦克风可用,这将让你注册你的声音和面部轮廓,以便在Teams会议中正确捕获你说的任何话。 最后,微软宣布有新的运营商支持其Teams Phone Mobile功能,让你为Teams和你的移动设备拥有单一号码。“我们很高兴宣布,包括AT&T、Odido、Virgin Media O2和Vodafone UK在内的几个新合作伙伴将在今年晚些时候开始提供Teams Phone Mobile服务,”微软说。
英特尔放出了一颗重磅炸弹,宣布未来的微软AI电脑新纪元将需要一把“副驾驶”钥匙
英特尔、微软、高通和AMD这些科技巨头在过去几个月一直在大力推动“AI PC”的概念,随着我们迈向Windows中更多AI驱动的功能,这一创新概念越来越受到关注。尽管我们还在等待微软就其在Windows中AI的宏伟计划分享更多细节,英特尔已经开始分享微软对OEM制造商构建AI PC的要求——其中一个主要要求是AI PC必须拥有微软的Copilot钥匙。 微软希望其OEM合作伙伴为其AI PC理念提供硬件和软件的结合。这包括一套配备神经处理单元(NPU)、最新CPU和GPU,并能接入Copilot的系统。它还需要拥有微软今年早些时候宣布的新Copilot钥匙。 这项要求意味着,像华硕的新ROG Zephyrus这样的笔记本电脑,虽然已经搭载了英特尔的新Core Ultra芯片并且出货,但因为它们没有Copilot钥匙,在微软的严格要求下并不算是AI PC。不过,在英特尔看来,它们仍然是AI PC。 英特尔的PC生态系统负责人Todd Lewellen在与The Verge的媒体说明会上解释说:“我们的共同定义,英特尔和微软,我们在Core Ultra、Copilot和Copilot钥匙上达成了一致。从英特尔的角度来看,我们的AI PC配备了Core Ultra,它还集成了NPU,因为它解锁了AI领域全新的能力和功能。我们与微软有很好的一致性,但可能会有一些系统没有物理键,但它确实集成了我们的NPU。” 我相信英特尔和微软都希望OEMs将简单地遵循微软的要求并随时间增加Copilot钥匙,可能华硕的机器只是在微软准备好其新要求之前就已经出货了。今年早些时候,在CES上,戴尔在其键盘上贴上了Copilot的贴纸,这暗示微软的Copilot钥匙可能是其CES计划的后期加入。 目前尚不清楚OEMs遵循微软自己的AI PC定义将获得什么回报。我已经联系微软就其要求发表评论,但公司目前还没有讨论其AI PC计划。微软确实在本月早些时候将AI PC品牌用在了其最新的Surface Pro 10和Surface Laptop 6商业设备上,但笔记本电脑是否会有贴纸或OEMs是否会有额外的营销预算尚不清楚。 除了AI PC要求外,英特尔还在扩大其去年10月启动的AI PC加速计划。该计划旨在吸引软件开发人员对其应用程序加入AI驱动的功能感兴趣,现在正在扩展至通过AI PC开发者计划触及更多小型开发者。 英特尔将全年举办活动,提供实操时间帮助开发者习惯使用AI模型和工具,还有一个本质上是装载了预安装软件、驱动和开发工具的ASUS NUC Pro 14的AI PC硬件开发套件。 希望这种对开发者的关注能转化为更多利用这种新NPU硬件的应用程序。目前,能够利用NPU的应用并不多,微软Windows中的Windows Studio Effects用于视频通话时模糊背景和保持眼神接触是NPU内目前的主要用途。 英特尔还以这个AI PC加速计划为目标,试图让硬件供应商优化并启用其硬件以支持英特尔的AI PC。这本质上是英特尔为了在这些AI PC推出时尽可能多地让软件和硬件开发者站在其一边优化应用程序和硬件而进行的竞赛。今年的竞争对手是高通,后者即将推出一系列Snapdragon X Elite笔记本电脑,这可能会为Windows on Arm带来重大的性能飞跃。 谷歌甚至在本周发布了针对Windows on Arm优化的Chrome浏览器版本,这是一个重大的转变,将大大改善在高通驱动的Windows笔记本电脑上使用Chrome的用户体验。微软也传闻将其消费者版本的Surface Pro 10和Surface Laptop 6完全转向Arm。微软将在5月20日举行一个AI和Surface活动,届时CEO Satya Nadella将概述公司对AI硬件和软件的愿景。
苹果全球开发者大会(WWDC 2024)锁定了6月10日
今年的苹果全球开发者大会(WWDC)即将拉开帷幕,从6月10日开始一直持续到6月14日。每次这样的盛会,苹果都会聚焦于即将在秋季推出的软件更新,并且宣布一些新硬件产品。但今年,围绕苹果在生成式人工智能领域的策略,似乎笼罩着一层神秘的面纱。 据传,苹果每天投入数百万美元用于训练自己的AI模型,并且还在秘密与新闻媒体洽谈内容合作,以供训练之用。然而,最近的报道却揭示了苹果可能会与谷歌、OpenAI、Anthropic(或在中国与百度)达成合作,以提供基于云的AI功能,同时严格限制其自身生成功能仅在设备上运行。根据最近的一份彭博社报告,苹果甚至可能向所有AI开发者敞开生态系统的大门,允许他们在苹果设备中进行深度整合。 当然,苹果多年来一直在谈论设备上的机器学习,但现在生成式AI如此受到重视,苹果似乎也准备在这个领域大放异彩了。(请看M3 MacBook Air,也就是“世界上最佳的消费级AI笔记本电脑”。) 除了AI,我们还可以期待iOS、iPadOS、macOS、watchOS以及苹果其他操作系统的一系列功能更新。一些传闻中的更新包括在iPhone上自由放置应用图标的能力、“自由形态”中的“场景”功能,以及新的辅助功能快捷方式。甚至可能有两款新的AirPods型号——继第二代AirPods之后的入门级新品以及代替中端AirPods 3的降噪版——以及配备USB-C的更新版AirPods Max耳机(但可能没有其他太多新功能)。 去年的大事件自然是期待已久的Vision Pro头戴设备的发布。但苹果还宣布了一些其他事情,比如重视小工具的WatchOS重设计、iOS 17的待机模式、macOS的桌面小工具,以及再次向游戏行业发出的邀请。 2023年的WWDC还见证了苹果终于完成了对Apple硅芯片的过渡,当时他们展示了配备M2 Ultra芯片的更新版Mac Pro(该芯片后来也用在了新的Mac Studio中)。MacBook Air也获得了一些关注,因为推出了15英寸的新款型号。
Google AI 肺癌筛查的计算机辅助诊断
全球各地,肺癌的阴影无声无息地笼罩着无数家庭,2020年就有高达180万的生命在这场战斗中倒下。这场战斗中,早发现、早治疗是赢得胜利的关键。现代科技的利器——计算机断层扫描(简称CT)以其细致入微的三维肺部图像,为这场战斗带来了一线生机,特别是在那些高风险的人群中,通过提前发现癌症迹象,已证实至少能降低20%的死亡率。在美帝,年年扫描,视乎地域和个案,有的地方可能会建议扫得更勤或更松。 说到扩大肺癌筛查的推荐范围,美国预防服务工作组近来可是大手笔,一举增加了约80%的覆盖面,这意味着更多的女性和来自种族及少数民族的群体将有机会接受筛查。然而,万事开头难,假阳性的问题就像是无处不在的炸弹,一不小心就会引发患者的恐慌,导致不必要的医疗程序,不仅给患者带来身心的双重打击,还会增加医疗系统的经济负担。再加上,要在庞大的人群中进行筛查,还得看医疗基础设施和放射科医生是否能应对得来。 好在,谷歌大脑早有准备,他们用机器学习(ML)的神奇力量,研发出了肺癌检测的模型,能够自动标记出可能患有癌症的区域,这技术水平可不输给专家。不过,技术再高端,要是用不好,那也只能是纸上谈兵。因此,他们又进一步探索,如何将这些发现有效地传达给放射科医生,确保这些高科技成果能够落地生根。 辅助肺癌筛查系统输出的示例。放射科医师评估的结果在CT体积图像的可疑病变位置上可视化。CT图像顶部显示了总体的可疑程度。圆圈突出显示了可疑的病变,而方形则展示了同一病变从不同视角(称为矢状视图)的呈现: 他们不仅在《辅助AI在肺癌筛查中的应用:美国和日本的回顾性跨国研究》一文中深入探讨了这一主题,还设计了一个以用户为中心的界面,让放射科医师能够更好地利用这些模型进行肺癌筛查。这个系统不仅能够识别出肺部CT图像中的可疑区域,还能根据风险等级进行分类,极大地提升了放射科医生的工作效率。 为了让这套系统更加接地气,谷歌还将其部署在了Google Cloud上,利用Google Kubernetes Engine技术,确保了系统的高效运行和易于扩展。通过这种方式,医院和诊所能够直接连接到储存图像的服务器,无缝对接现有的医疗图像存储和传输系统。 最后,通过与放射科医生的紧密合作,进行了一系列的读者研究,结果令人振奋——使用了AI辅助系统的放射科医生,在识别无需进一步追踪的肺部图像方面的准确率有了显著提升,这不仅能减少患者的不必要焦虑,还能有效减轻医疗系统的负担,让肺癌筛查项目更加可持续发展。 在基于美国和日本的读者研究中,随着机器学习模型的辅助,读者的特异性提高了。特异性值是根据读者对可采取行动的发现(发现了可疑情况)与无可采取行动的发现的评分,与个体的真实癌症结果相比较而得出的。在模型的辅助下,读者标记需要后续访问的非癌症个体数量减少了。对于癌症阳性个体的敏感性保持不变: 现在,谷歌正与DeepHealth和Apollo Radiology International等行业领导者合作,探索如何将这一系统集成到未来的产品中,他们还计划开源用于读者研究的代码,以促进医学成像研究领域的AI应用研究,希望能够为抗击肺癌的长期战役贡献一份力量。