微软 Ignite 2024 大会正式召开,为开发者和 IT 专业人士带来一系列新功能的亮相,涵盖 Windows、Microsoft 365、Azure 以及 AI 的最新进展。今年大会依旧聚焦人工智能,彰显微软的技术前沿实力。 Windows 11 将迎来任务栏的全新升级,新增 Microsoft 365 助手功能。用户可以通过任务栏快速访问联系人、文件和日历,显著提升工作效率。微软 Windows 负责人 Pavan Davuluri 表示,这些数据只需点击即可获取,极大简化日常操作。 微软计划在未来几个月内更换 Microsoft 365 应用图标,新图标与 Copilot 设计一致,取代现有的蓝紫配色。这一品牌调整引发了用户对 Copilot 定位的进一步关注。 Azure AI Foundry 平台全新上线,旨在帮助企业高效管理 AI 工具,将前沿技术与实际业务场景结合,释放 AI 的全部潜能。微软表示,这个平台将成为企业迈向智能化的重要桥梁。 Windows 的完整功能将于 12 月支持 Meta Quest 3 混合现实设备。用户可以通过头显实现多屏工作站体验,开启全新的生产力模式。不过,Windows 体积化应用的具体发布时间仍在等待进一步确认。 微软宣布推出全新黑客活动“Zero Day Quest”,规模为业内最大。活动聚焦云和 AI 安全漏洞研究,总奖金高达 400 万美元。微软工程副总裁 Tom…
Author: aitrendtrackers@rengongzhineng.io
Google最新推出的Gemini记忆功能
Google最新推出的Gemini功能可以“记住”用户的一些信息,比如兴趣爱好和个人偏好。这项更新目前正在向拥有Gemini Advanced访问权限的订阅用户逐步推送。根据Gemini的最新发布说明,这项功能将帮助AI聊天机器人根据用户需求量身定制响应内容。 Google表示,用户在与Gemini聊天时,可以分享关于工作、兴趣、爱好甚至未来目标的相关信息。此外,还可以通过机器人内的“保存信息”页面手动输入一些重要细节,比如让它只推荐素食食谱,或者告诉它你是一名会计师。 值得一提的是,用户可以随时在“保存信息”页面查看、编辑或删除Gemini所收集的数据。每当Gemini在回复中使用了用户提供的信息时,系统会进行标注。目前,Gemini Advanced功能需要订阅Google One AI Premium才能使用,并且暂时只支持英文版本。 OpenAI方面也不甘示弱,今年4月就为ChatGPT Plus用户上线了类似的记忆功能。与Gemini类似,ChatGPT也能够记录用户在对话中提到的信息,比如最喜欢的食物或养了什么宠物。两家巨头在AI个性化服务上的较量正在逐步升温。
新晋AI电商玩家:Perplexity带来“智能购物”新体验
要点总结: 由亚马逊支持的AI初创公司Perplexity,近期正式进军电商领域,推出全新购物功能“Perplexity Shopping”。目前,这项功能已面向美国的Pro订阅用户陆续开放,目标是将AI搜索技术与在线购物相结合,创造一站式消费体验。 根据Perplexity周一发布的博文,用户无需跳转至其他网站即可在平台内浏览商品信息并完成购买。当用户输入查询内容时,系统会生成产品卡片,显示价格、卖家等详细信息,方便消费者直接比较选购。 高效便捷的购物功能 除了产品卡片,“Perplexity Shopping”还提供了一键结账功能,适用于已保存支付信息的用户。另一个亮点是“Snap to Shop”功能,用户只需上传图片,系统即可定位相关商品。这一功能与亚马逊的视觉搜索工具Amazon Lens有异曲同工之妙。 拒绝广告,靠AI说话 在产品推荐方面,Perplexity表示将依托AI分析平台内的真实用户评论,而非使用其他电商平台常见的赞助内容。公司希望通过此举提升推荐的公正性和可靠性。 为进一步丰富产品选择,Perplexity还推出了“商家计划”,允许零售商上传更详尽的商品信息,以提高曝光度。 AI搜索市场竞争激烈 此次扩展电商功能正值AI搜索领域风云变幻之际。谷歌正在大力升级其AI搜索功能,OpenAI则在其ChatGPT聊天机器人中引入了搜索引擎模块。 虽然Perplexity CEO阿拉温德·斯里尼瓦斯(Aravind Srinivas)表达了公司希望超越“单纯搜索工具”的雄心壮志,但这项新购物功能能否真正赢得用户青睐,仍有待观察。
AMD超越Nvidia:新Top500超级计算机榜单揭示关键趋势
在本周于亚特兰大召开的SC24大会上,最新发布的11月Top500超级计算机榜单成为焦点。这份榜单的变化比5月ISC24大会期间公布的榜单要大得多,新上榜的机器中涌现出许多引人注目的发展。 最大的新闻无疑是由惠普企业(HPE)打造、采用AMD混合CPU-GPU计算引擎的“El Capitan”系统正式上线。这台备受期待的超级计算机毫无悬念地登顶榜单,且远超美国国内竞争对手以及传闻中的中国千万亿次级计算机的规格。 El Capitan:榜单新霸主 El Capitan系统的一部分(目前尚未完全测试)包含43,808块AMD“Antares-A”Instinct MI300A计算设备,已经由劳伦斯利弗莫尔国家实验室进行了多个基准测试,包括自1993年以来用于排名超级计算机的高性能Linpack(HPL)测试。 测试结果表明,El Capitan的这部分系统理论峰值性能达到2,746.4千万亿次浮点运算(petaflops),远高于此前预测的2.3至2.5百亿亿次(exaflops)。其HPL测试的峰值持续性能为1,742千万亿次,计算效率为63.4%。这接近加速系统初上市时的预期效率水平(65%左右)。未来,随着系统的全面测试和优化,这一效率和性能可能会进一步提升。 MI300A处理器于2023年12月首次亮相,其兄弟型号MI300X则专注于GPU计算,未包含CPU核心。而MI300A结合了三颗芯片封装的24核“Genoa”Epyc核心和六颗Antares GPU流处理器芯片,主频1.8 GHz。通过HPE的“Rosetta”Slingshot 11以太网互连技术,这些计算设备被无缝连接起来。 测试中的部分El Capitan系统包含约105万颗Epyc核心和近1,000万GPU流处理器。这种并发计算能力的规模虽然庞大,但并非前所未见。例如,中国无锡国家超级计算中心的“太湖之光”超级计算机就拥有1,065万颗核心,自2016年上榜以来仍排名全球第15位。 榜单趋势:AMD崭露头角 最新榜单的61台新机器中,AMD成为最大的赢家,新增的计算能力主要来自搭载AMD Instinct MI300A的系统。这些系统总共贡献了5,211.6千万亿次的新增理论峰值性能,其中60.1%来自El Capitan及其小型版本。这让AMD在新增计算能力中占比达到72.1%,彻底击败了Nvidia。 相比之下,Nvidia在榜单中的新增能力显得逊色许多:基于Grace-Hopper架构的新系统仅占新增计算能力的3.8%;搭载Nvidia GPU的系统总共贡献了39%的新增能力,包括Intel Xeon CPU和Nvidia GPU组合,以及AMD Epyc CPU和Nvidia GPU组合的多个系统。 值得注意的是,其他基于AMD CPU与MI250X GPU的系统,如意大利Eni SpA公司部署的HPC6,也对榜单做出了重要贡献,这些系统总共提供了619.3千万亿次性能。 榜单全貌:AMD领先Nvidia 当前榜单中共有209台加速系统,这些系统占榜单总机器数量的41.8%,但贡献了83.4%的总计算能力。在这些加速系统中,AMD GPU驱动的系统仅占9.1%,但其贡献的64位浮点性能占比高达44.9%。相比之下,Nvidia GPU尽管占据87.6%的加速系统,但其贡献的性能仅占40.3%。 从整体来看,榜单中的加速系统拥有55.4%的总核心数和流处理器,总计约1.286亿个核心。 突破与挑战:超算的未来 尽管El Capitan的出现标志着超算迈向新高度,但突破千万亿次级计算仍然面临预算和功耗的限制。尽管中国的“天河-3”和“海光”超级计算机据传早已实现千万亿次性能,但未正式提交HPL测试结果,因此未能进入榜单。 目前,入榜Top500的门槛已提高到2.31千万亿次,Top100的门槛则达到12.8千万亿次。然而,小型HPC中心新增计算能力的速度远不及大型系统,难以支撑榜单的整体性能翻倍增长。未来,要让更多超算进入榜单,不仅需要技术突破,更需要降低系统的成本和功耗。 AMD的强势表现标志着一个新时代的开始,但超级计算的竞争格局仍在不断演变。
Mistral推出“Le Chat”,对标ChatGPT
法国AI初创企业Mistral近日发布了一系列新功能,力图将其聊天机器人“Le Chat”(法语意为“猫”)打造成一个功能全面的工作助手,同时挑战其主要竞争对手ChatGPT的领先地位。 Le Chat的新功能包括能够像ChatGPT一样浏览网页,并附带引用提供搜索结果。此外,它新增了一个由AI图像生成工具Black Forest Labs支持的设计功能,用户可以通过文本或语音命令,创建、编辑、预览并转换各种内容,如网页、数据可视化和PowerPoint演示文稿。 不仅如此,Le Chat还能够分析并总结复杂的PDF文件、大型图像、图表和方程,提供关键见解——这一功能与ChatGPT极为相似。 不过,有一项突破性功能是ChatGPT目前无法实现的:Le Chat可以自动化处理重复性工作,比如发票处理或报告生成,能够自主完成多步骤任务。这一差异化功能让Le Chat在某些领域表现出潜在优势。 虽然有传闻称,ChatGPT也在计划引入类似的自动化功能,但目前尚未推出。 Mistral正通过这些新功能争夺市场份额,未来AI助理领域的竞争势必更加激烈。
AI诊断超越医生?研究揭示惊人真相
人工智能聊天机器人在医疗诊断上的表现远超医生,这一发现引发了医学界的震动。在一项实验中,即使医生使用ChatGPT进行诊断辅助,其表现也仅比未使用AI的医生稍好。而更令人意外的是,单独依靠ChatGPT,诊断准确率竟然胜过所有医生。 波士顿贝斯以色列女执事医疗中心的内科专家Adam Rodman博士原本认为,AI聊天机器人可以帮助医生更好地诊断疾病。然而,研究结果令他大为震惊。在这项实验中,ChatGPT在诊断病例时的平均得分为90%,而使用ChatGPT的医生得分仅为76%,没有使用AI的医生得分为74%。 Rodman博士表示,这项研究不仅展示了AI的优越性能,还揭示了医生在面对更优诊断建议时,常常对自己的判断过于自信而不愿接受AI的意见。 研究背后的实验细节 这项研究招募了50名医生,涵盖住院医师和主治医生,由多个美国大型医院系统参与。实验中,研究人员为医生提供了六个病例,要求他们列出可能的诊断并说明支持或反对这些诊断的理由,最终还需提交一个明确的诊断结果以及额外的诊断步骤。 所有病例基于真实患者病史,选自自上世纪90年代以来用于研究的105个经典病例。这些病例从未公开,以确保测试者无法提前获取相关信息,同时也排除ChatGPT曾被训练过这些病例的可能性。 一个测试案例涉及一名76岁的男性患者,在接受冠状动脉血管成形术后几天内出现下背部和腿部剧烈疼痛,同时伴随疲劳和发热。实验提供了详细的体检和化验数据,正确诊断为胆固醇栓塞。然而,无论是否使用AI,医生在这些复杂但并非极罕见的病例上普遍表现不佳。 AI诊断为何胜过医生? 研究发现,问题的核心在于医生如何诊断病情以及他们如何使用AI工具。 Brigham妇女医院的医学史学者Andrew Lea博士指出,医生的诊断过程往往很模糊,许多人依赖直觉或经验,这种不明确的思维方式使得模拟医生诊断逻辑的AI系统难以设计。 然而,与早期的诊断程序不同,基于大语言模型的AI(如ChatGPT)并未试图模仿人类的思维方式,而是通过对语言的预测能力来实现诊断功能。这种聊天界面使AI能够快速处理整个病例历史并给出全面的诊断建议,突破了传统系统的限制。 尽管如此,研究还揭示了一个重要问题:很多医生并未充分利用AI的能力。数据显示,医生通常只是将ChatGPT当作搜索引擎,通过提出直接的问题来获取答案,而很少有人意识到可以将整个病例历史复制粘贴给AI,要求其给出完整的诊断分析。这导致医生错过了AI提供的全面、智能的答案。 人为偏见与AI潜力 研究还发现,即使AI指出了与医生诊断不一致的细节,许多医生仍坚持自己的结论,不愿采纳AI的建议。Erasmus医学中心的诊断学专家Laura Zwaan表示,这种现象背后是人类的过度自信,“人们通常在自认为正确时对自己的判断过于确信”。 与此同时,信任问题也成为AI在医疗领域广泛应用的主要障碍之一。Stanford大学的医生兼计算机科学家Jonathan H. Chen表示,AI的潜力巨大,但要让医生学会正确使用这些工具,还有很长的路要走。 这项研究的意义不仅在于展示AI的能力,更在于推动医生学习如何与AI协作,使其成为诊断过程中的有力助手。AI未来或许无法完全取代医生,但它有望成为诊断中的“第二意见”,帮助医生提升效率并降低误诊率。
AI 使用心态大转变:如何让 AI 成为日常工具
公关与内容负责人 从偶尔用 AI 到成为 AI 高手,只用了几个月的时间。这一切源于对 AI 使用的心态转变。如今,AI 已经融入了日常工作。 有人说,未来不会是专业人士被 AI 取代,而是不会用 AI 的专业人士被那些善用 AI 的同行取代。这一观点已被研究验证。 哈佛商学院的一项研究对比了两组咨询顾问——一组使用 AI,另一组则没有。结果显而易见:使用 AI 的顾问任务完成量多了 12.2%,完成速度快了 25.1%,而且工作质量高出 40%。 看到这些数据后,其他人的成功经历激励了更多人去探索 AI 的潜力。经过几个月的摸索,学会如何在工作流中融入 AI,明显感受到工作速度和深度的提升。以下是利用 AI 提升工作的具体方法,不是简单的提示,而是彻底改变思维方式的过程。 工具推荐:Claude 和 ChatGPT 市面上的 AI 工具种类繁多,而常用的选择之一是由 Anthropic 开发的 Claude,它能提供深入的回答,并且理解问题非常到位,占日常使用时间的 80%。此外,ChatGPT 也是备选之一。相比生成直接内容,更倾向于利用 AI 进行对话和思维碰撞。 如果需要 AI 图像生成或其他用途,也有很多专业工具可以选择。关键在于根据实际需求,找到最契合的工具。 利用 AI 提升思维深度 职业生涯中最宝贵的时刻,往往是与那些能挑战思维方式的人一起解决问题。例如几年前,为 Buffer 博客制定内容策略时,有位同事提出要“关注结果而非产出”。这一建议彻底改变了计划方向,从单纯的内容数量转向用数据驱动结果优化。 类似的思维碰撞不必局限于人与人之间。AI 同样可以扮演这样的角色:在遇到挑战时,将问题和思考过程告诉 AI,让它提供反馈并推动新思路。 实践方法:…
AI模型新发现:精度的重要性超出预期
最近,哈佛大学、斯坦福大学等机构的研究人员联合发布了一项研究,指出模型训练中的精度(即用多少比特表示数字)对模型性能的影响比人们之前认为的更为重要。这项研究不仅重新定义了规模化法则的关键因素,还对未来AI模型的训练方式和硬件发展提出了新的见解。 研究显示,过往的规模化法则主要关注参数数量和训练数据量,而忽略了精度的影响。团队通过大量实验证明,精度不仅是影响模型性能的核心变量,还可以显著改变计算资源的效率。 研究团队进行了465次训练实验,模型的精度范围从3到16比特不等,并测试了在训练后对模型进行量化(降低精度)的效果。实验模型的参数数量高达1.7亿,训练数据量达到260亿标记。这些测试让研究人员得以系统性地分析精度对模型训练和性能的深远影响。 实验结果揭示了一个重要现象:“过度训练”的模型对量化更加敏感。当模型训练标记数量与参数数量的比值远高于被认为“最优”的20(即Chinchilla-optimal值),其在训练后被量化时性能下降更为明显。此外,随着训练数据的增加,量化后的性能劣化也随之加剧。研究人员指出,额外的数据训练在某些情况下反而会放大量化误差,对模型性能产生负面影响。 基于实验结果,研究团队提出了新的规模化法则,将精度纳入模型训练优化的核心要素。研究发现,在优化参数数量、数据量和精度时,使用7到8比特的精度通常是计算资源的最佳选择。传统的16比特精度在许多场景下是资源浪费,而4比特精度尽管节省资源,但需要大幅增加模型规模才能维持性能,得不偿失。 然而,研究还指出,当模型规模固定时,较大的模型(如16比特训练的Llama 3.1 8B)需要更高的精度才能避免性能损失。这也反映出低精度计算方法的局限性在一定程度上依赖于硬件支持,目前的研究尚未验证这种趋势在超大规模模型中的适用性,但初步结果令人信服。 对于这项研究的意义,卡内基梅隆大学和Allen AI的研究员Tim Dettmers高度评价,称其为“近期最重要的研究之一”。他指出,这项工作表明低精度训练方法的效率提升空间正在逐渐耗尽,尤其是对于像Llama 3.1这种拥有4050亿参数的大模型。Dettmers认为,这可能预示着AI行业将从单纯的规模化转向更专注于人类应用和定制化模型的方向,例如通过知识蒸馏或开发行业专用模型来提升效率。 这项研究不仅改变了人们对精度在AI模型训练中角色的理解,也提出了未来模型设计的新方向。随着硬件对低精度计算的支持逐步提升,这些新法则可以帮助开发者在模型大小、数据量和精度之间找到更高效的平衡点。未来,AI行业或许将告别单纯追求“更大更强”的模式,转而关注模型的实际效能与应用价值。
马斯克与OpenAI的往事:从理想主义到“背叛”的纠葛
埃隆·马斯克与OpenAI的关系在这场最新的反垄断诉讼中被再度拉回聚光灯下。尽管针对OpenAI违反反垄断法的指控看起来难以成立,但曝光的邮件却揭示了OpenAI早期内部的矛盾与争执——从马斯克对领导权的执念,到其他创始人对“AI独裁”的担忧,再到微软的“金主”角色初现端倪,这些细节颇具戏剧性。 马斯克的领导权之争:独裁的隐忧 一封特别值得关注的邮件来自OpenAI前首席科学家伊利亚·苏茨克弗(Ilya Sutskever),他详细表达了团队对马斯克领导的顾虑: 苏茨克弗明确表示,OpenAI的目标是防止AGI被任何一个人或组织独占,避免出现“AI独裁”。他警告称,马斯克创建的结构本身就可能让他变成“独裁者”,这与OpenAI的初衷背道而驰。 对奥特曼的质疑:商业化的方向已注定? 苏茨克弗对另一位创始人山姆·奥特曼(Sam Altman)的看法同样不无保留: “我们无法完全信任你的判断,因为我们无法理解你的真正动机。” 这些疑虑也与后来奥特曼被董事会指责“不够坦率”如出一辙。苏茨克弗在早期邮件中就提到,奥特曼对CEO职位的坚持与他的商业动机息息相关。回顾OpenAI如今向企业化发展的轨迹,这种“哲学理想逐渐让位于盈利目标”的方向似乎早已埋下伏笔。 早期未果的商业计划:从Cerebras到微软 回溯到2017年,OpenAI曾考虑收购芯片制造商Cerebras,并可能借助特斯拉的资源进行交易。苏茨克弗写道:“如果我们决定收购Cerebras,我强烈建议通过特斯拉来完成。”尽管最终这笔交易未能成行,但它反映出当时团队对与特斯拉绑定的兴趣。OpenAI联合创始人安德烈·卡帕斯提(Andrej Karpathy)甚至提议:“OpenAI可以依附特斯拉,将其作为‘现金奶牛’,利用其收入支持AI研发。”然而,特斯拉的自动驾驶技术进展远不如预期,也使这一愿景不了了之。 微软与OpenAI的最初接触 2016年,微软向OpenAI提出一项交易:提供6000万美元的Azure计算资源,条件是双方需要互相“推广”对方的品牌。马斯克对此非常抵触,他在邮件中直言这样的合作让他“恶心”,并认为与其接受微软这种“市场宣传绑定”,不如付更多的钱买自由。最终,双方的合作协议规避了这一条款。 隐藏的玩家:Gabe Newell 另一个令人意外的名字是Valve创始人Gabe Newell。根据董事会成员希冯·齐利斯(Shivon Zilis)的邮件,他是奥特曼和格雷格·布洛克曼(Greg Brockman)的“非正式顾问”,也是项目早期的捐助者之一。但他的具体角色仍然是个谜。 总结:从乌托邦到现实冲突 这些邮件记录了OpenAI从一个非营利理想主义组织向如今“商业化巨兽”转型的关键时刻。马斯克对控制权的执念、奥特曼对盈利的倾向,以及创始团队内部的分歧,奠定了后来的一系列争议。 尽管邮件中没有揭示全部真相,但它们勾勒出一个故事:一个致力于拯救人类的组织,在理想与现实之间经历了撕裂和妥协。而马斯克的感觉可以用一个词总结——背叛。
Elon Musk 状告加州:为何对“深度伪造法案”说不?
社交媒体平台X(原Twitter)的老板埃隆·马斯克,正在对加州一项新签署的法律AB-2655(即“捍卫民主,防止深度伪造欺诈法”)发起诉讼。这项法律要求拥有超百万用户的大型在线平台删除或标记与选举相关的AI生成的深度伪造内容,并建立举报虚假选举信息的程序。 马斯克的核心诉求:侵犯宪法权利? 马斯克在长达65页的诉讼文件中指出,这部法案违反了美国宪法第一修正案(言论自由)和第十四修正案(平等保护原则)。他认为该法案会导致对大量宝贵的政治言论和评论的审查。 具体而言,马斯克认为: 此外,这项法案被批评为“言论内容的裁判”,政府能以防止误导选民为名,直接干预政治言论,这在马斯克看来是危险的先例。 法案背景:与“深伪视频”风波有关 AB-2655的出台背景并不复杂。今年7月,马斯克曾助推了一段关于美国副总统卡玛拉·哈里斯的深度伪造视频,引发公众关注。加州州长加文·纽森随即承诺,在数周内签署相关法案,将这种行为归类为违法。 类似法案的命运:法律是否真的站得住脚? 值得注意的是,AB-2655并不是近期唯一因深伪内容而被挑战的法案。就在数周前,联邦法官已否决了另一项相关法律(AB-2839),该法案试图允许个人因选举深伪内容提起损害赔偿诉讼。理由是这同样违反了第一修正案。马斯克对此判决公开表示支持,如今也借此法律基础试图阻止AB-2655的生效。 为何值得关注? 这场诉讼不仅关系到深度伪造内容的监管,更牵涉到技术进步与言论自由的平衡问题: 未来的可能走向 马斯克的诉讼再次将科技巨头与政府在言论自由问题上的冲突推上台面。这不仅是一次法律博弈,更是关于科技与社会规则如何共存的深刻讨论。