苹果公司对AI的态度绝不是闹着玩的。他们悄悄收购了加拿大初创公司DarwinAI,这家公司擅长让AI模型变得更小、更快——完美适合于直接在你的设备上运行AI。这是他们为2024年承诺的大规模AI升级做准备。 这到底是怎么一回事? 苹果在AI竞赛中正在迎头赶上,并且正在为今年的重大生成式AI推动增强其团队力量。 这意味着什么? DarwinAI主要关注于制造业,但它也在将AI模型缩小和加速方面做了一些工作。这可能就是苹果此次收购的大计(毕竟他们非常注重隐私和本地数据)。 DarwinAI团队中的几十位成员已加入苹果更广泛的生成式AI团队,共同创始人Alexander Wong在苹果的AI军队中担任“导演”级别的角色。 我为什么要关心? 我们很可能很快就会看到日常AI获得重大的苹果风格升级——最受期待的是更好的Siri。苹果能让设备上的AI工作吗? 三星和谷歌都试过,但许多“强大”的功能需要将你的数据发送到云端,那里有大型的语言模型。设备上的AI可以为隐私开辟令人兴奋的可能性,因为这些酷炫功能的工作不需要你的数据离开设备。
Author: aitrendtrackers@rengongzhineng.io
Claude 3 Haiku,它不仅是Claude系列中最快的成员,还在速度的赛道上领先一大步
在今天的技术圈里掀起了一场小小的革命,Claude 3系列迎来了它的最新成员——Haiku。这位新成员以其独特的速度优势和亲民的价格在智能界独树一帜。Haiku擅长于解析图像,无论是在行业基准测试还是实际应用场景中,都展现出了令人瞩目的表现。现在,无论用户是Sonnet的追随者还是Opus的爱好者,都可以在Claude API或者claude.ai的Claude Pro订阅服务中找到Haiku。 对于那些需要快速分析庞大数据集和生成及时输出的企业用户来说,Haiku的速度就像一股清流。这位新成员能够以其它同级产品三倍的速度处理大多数工作任务,每秒处理约21K token(大约30页内容),对于32K token以下的提示,它的响应速度异常迅速,能够提供流畅的聊天体验并同时执行多个小任务。 Haiku采用了1:5的输入输出token比率计价模式,特别适合处理企业级的长篇幅任务。企业可以依赖Haiku以半价的成本快速分析处理大量文件,如季度报告、合同或法律案件。例如,只需一美元,Haiku就能处理分析400个最高法院案例或2500张图片,这使得它在同等性能级别的模型中性价比极高。 除了速度和成本效益,Haiku还特别强调企业级的安全性和稳健性。通过严格的测试减少有害输出和模型逃逸的风险,确保使用的安全性。此外,从系统的持续监控、端点加固、安全编码实践、强大的数据加密协议到严格的访问控制等多重安全措施,均旨在保护敏感数据的安全。定期的安全审计和与经验丰富的渗透测试人员的合作也是为了主动识别和解决潜在的安全威胁。更多关于这些安全措施的信息可以在Claude 3的模型说明卡中找到。 从今天起,客户可以通过API或在claude.ai上的Claude Pro订阅服务使用Claude 3 Haiku。它已经在亚马逊Bedrock平台上线,并将很快登陆谷歌云的Vertex AI平台。
微软推出AI Copilot for Security,采用按量付费的方式
微软下月将把它的人工智能小能手——“AI 安全副舵手”带进网络安全领域,这可不是个普通的聊天机器人哦,它专为那些日夜奋战在网络安全第一线的英雄们设计,帮他们抵御各种网络威胁。别以为这家伙会像微软365的副驾一样,收你个月费就完事了。微软这次玩的是“用多少,付多少”,每小时4美刀的消费模式,4月1号正式上线。 这位“AI 安全副舵手”不仅脑洞大开,还特别能干,它是由OpenAI的GPT-4和微软自家的安全特制模型驱动的。这意味着,网络安全工作者现在可以随时获取最新的安全事件信息、威胁总结等等。微软早在一年前就开始测试这个聊天机器人了,它能接入微软每天收集的78万亿个安全信号中的最新威胁信息。 而且,“AI 安全副舵手”还有一个钉板区,方便网络安全员工之间的协作,还能总结事件报告呢。就像其他的AI聊天机器人一样,你可以用自然语言输入信息,上传文件供其分析,甚至让它来分析代码。所有的指令都会被保存在历史记录里,以便日后审计。 这种按量付费的定价策略,旨在帮助企业根据需要调整AI驱动的网络安全工作。微软表示:“我们会提供一个简单的定价模型,不管是单独的副驾体验还是嵌入到微软安全产品组合中的体验,都用这一个模型。消费模式意味着企业可以快速、小规模地开始,无需预付任何设备或用户费用,就能试验和学习。” 微软推动AI进入网络安全领域的同时,也正遭受俄罗斯国家支持的黑客组织Nobelium的攻击。就是这个团伙之前发动了SolarWinds攻击,还偷偷监视了一些微软高管的电子邮件收件箱好几个月。那次攻击还导致微软的一些源代码被偷,黑客得以访问公司的源代码仓库和内部系统。 在最近几年严重的Azure云攻击事件之后,微软正在全面改革其软件安全。2021年,因为Microsoft Exchange Server的一个漏洞,有三万个组织的电子邮件服务器被黑;去年,中国黑客通过一个微软云漏洞入侵了美国政府的电子邮件。
Jeff Bezos的投资正开始见效
面对谷歌在搜索引擎领域的统治地位,许多公司尝试挑战但最终难以撼动。然而,Perplexity AI作为一款全新的由AI驱动的搜索引擎,正在引起关注。之前,它在杰夫·贝佐斯和Nvidia参与的融资轮中估值达到了5.2亿美元。仅仅几个月后,它的估值就超过了10亿美元,这意味着贝佐斯的投资在短时间内几乎翻了一番。 贝佐斯注意到Perplexity的快速崛起,因为它迅速达到了每月1000万用户。尽管创业公司试图挑战谷歌权威的赔率堆叠不利,贝佐斯仍冒险投资于Perplexity,而这一冒险几个月后显然取得了回报。 Perplexity的首席执行官阿拉温德·斯里尼瓦斯认为,在更好地利用AI方面,他们比谷歌有优势。这个案例不仅展示了贝佐斯敏锐的投资眼光,也证明了即使在由巨头主导的市场中,通过创新和利用先进技术,新兴公司仍有机会颠覆市场。
打造Meta的GenAI基础设施,正站在一场技术革命的风口浪尖
Meta公司近日宣布了其AI未来的重大投资,公布了两个拥有24k GPU集群的细节。这标志着该公司在硬件、网络、存储、设计、性能和软件方面的突破,以提高各种AI工作负载的吞吐量和可靠性。这些集群专为训练Llama 3而设计,体现了Meta对开放计算和开源的坚定承诺。通过采用Grand Teton、OpenRack和PyTorch等开放技术,Meta持续推动整个行业的开放创新。 这次公告仅是Meta雄心勃勃的基础设施路线图中的一步。到2024年底,Meta计划继续扩大其基础设施建设,将包括350,000 NVIDIA H100 GPUs,旨在提供相当于近600,000 H100s的计算能力。 在开发AI的道路上,领先意味着在硬件基础设施上进行大量投资。硬件基础设施在AI未来中扮演了重要角色。今天,Meta分享了其两个24,576-GPU数据中心规模集群的细节。这些集群支持当前和下一代AI模型,包括Llama 3及其公开发布的LLM的继任者Llama 2,以及GenAI和其他领域的AI研究与开发。 Meta的长期愿景是建立开放且负责任地构建的人工通用智能(AGI),以便每个人都能从中受益。在迈向AGI的过程中,Meta也在扩大其集群的规模,以支持这一雄心。这些进步不仅创造了新产品,还为其应用家族和新的AI中心计算设备提供了新的AI功能。 Meta在构建AI基础设施方面拥有悠久的历史。2022年,Meta首次分享了其AI研究超级计算机(RSC)的细节,该计算机配备了16,000 NVIDIA A100 GPUs,加速了开放且负责任的AI研究,帮助Meta构建了第一代高级AI模型。RSC在开发Llama和Llama 2以及从计算机视觉、自然语言处理、语音识别到图像生成甚至编码的应用中的高级AI模型中发挥了并将继续发挥重要作用。 通过从RSC中获得的成功经验和教训,Meta的新AI集群着重于构建端到端AI系统,强调研究员和开发者的体验和生产力。这些集群的高性能网络结构、关键存储决策以及每个集群中的24,576 NVIDIA Tensor Core H100 GPUs的效率,使这两个版本的集群能够支持比RSC中可能支持的更大更复杂的模型,为GenAI产品开发和AI研究铺平了道路。 在网络方面,Meta每天需要处理数百万亿次AI模型执行。为了在大规模提供这些服务,需要一个高度先进和灵活的基础设施。Meta自主设计了大量硬件、软件和网络结构,以优化AI研究者的端到端体验,同时确保数据中心的高效运作。 在计算方面,这些集群使用了Meta自己设计并贡献给开放计算项目(OCP)的Grand Teton开源GPU硬件平台。Grand Teton基于多代AI系统,将功率、控制、计算和织物接口集成到单一机箱中,以获得更好的整体性能、信号完整性和热性能。它提供了快速的可扩展性和灵活性,可以快速部署到数据中心舰队中,并容易维护和扩展。结合其他自主创新,如Open Rack电源和机架架构,Grand Teton使Meta能够以针对当前和未来应用定制的方式构建新集群。 在存储方面,随着GenAI训练作业变得更加多模态,消耗大量的图像、视频和文本数据,对数据存储的需求迅速增长。Meta的存储部署通过一个自主开发的Linux文件系统用户空间(FUSE)API以及为Flash媒体优化的Meta“Tectonic”分布式存储解决方案来解决AI集群的数据和检查点需求。此外,Meta还与Hammerspace合作开发并实施了一个并行网络文件系统(NFS)部署,以满足这个AI集群的开发者体验要求。 性能方面,Meta在构建大规模AI集群时的一个原则是同时最大化性能和易用性,而不牺牲其中一个。随着我们推动AI系统的极限,最好的测试我们扩展设计能力的方式是实际构建系统,优化并测试它。在这个设计旅程中,我们比较了小集群和大集群的性能,以找出瓶颈所在。 Meta继续致力于AI软件和硬件的开放创新。公司相信,开源硬件和软件将始终是帮助行业解决大规模问题的有价值工具。 今天,Meta继续 支持作为OCP创始成员的开放硬件创新,并使像Grand Teton和Open Rack这样的设计可用于OCP社区。Meta也继续是PyTorch的最大和主要贡献者,PyTorch是推动大部分行业的AI软件框架。 Meta也继续致力于AI研究社区的开放创新。公司已经启动了开放创新AI研究社区,这是一个与学术研究人员合作的伙伴计划,旨在加深我们对如何负责任地开发和分享AI技术的理解,特别是关注LLMs。 对于Meta来说,对AI的开放方法并不新鲜。公司还启动了AI联盟,这是一个由AI行业领先组织组成的团体,专注于在一个开放社区内加速负责任的AI创新。Meta的AI努力建立在开放科学和跨领域合作的哲学之上。一个开放的生态系统为AI开发带来了透明度、审查和信任,并导致了每个人都能从中受益的创新,这些创新以安全和责任为最重要的考虑。 这两种AI训练集群设计是Meta未来AI更大路线图的一部分。到2024年底,Meta计划继续增长其基础设施建设,将包括350,000 NVIDIA H100s,作为一个将提供相当于近600,000 H100s计算能力的组合的一部分。 展望未来,Meta认识到昨天或今天有效的方法可能不足以满足明天的需求。这就是为什么公司不断评估和改进基础设施的每一个方面,从物理和虚拟层到软件层及以外。公司的目标是创建灵活且可靠的系统,以支持快速发展的新模型和研究。
Devin,第一位AI软件工程师
遇见Devin,全球首位全能自主AI软件工程师。 Devin是个不知疲倦的技术搭档,无论是并肩作战还是独立完成任务,它都能让你大开眼界。 有了Devin,工程师们可以将精力集中在更加有趣的问题上,工程团队也能追求更高的目标。 Devin的技能包括: 借助我们在长期推理和规划方面的进步,Devin能够规划并执行复杂的工程任务,这些任务需要成千上万的决策。Devin能够在每一步都回忆起相关上下文,随时间学习,并修正错误。 我们还为Devin装备了常见的开发工具,包括shell、代码编辑器和浏览器,这一切都在一个沙盒计算环境中——就像一个人类工程师需要的一样。 最后,我们让Devin能够与用户积极协作。Devin能够实时报告进度,接受反馈,并在设计选择上与你协同工作。 下面是Devin能做的一些示例: Devin的表现 我们在SWE-bench上评估了Devin,这是一个挑战性的基准测试,要求代理解决在开源项目中找到的真实世界GitHub问题,如Django和scikit-learn。 Devin正确解决了13.86%*的问题,远远超过了之前的最好成绩1.96%。即使给定了确切的文件来编辑,以前的最好模型也只能解决4.80%的问题。 *Devin在数据集的随机25%子集上进行了评估。Devin是无人协助的,而所有其他模型都是有协助的(意味着模型被明确告知需要编辑哪些文件)。
Extropic.AI:终结GPU/TPU的热力学未来的先驱?
Extropic团队最近发布了一份激动人心的消息,宣布他们正在开发一个全新的全栈硬件平台。该平台旨在利用物质自然波动作为计算资源,从而推动生成式人工智能的发展。这一创新计算范式的推出,预计将彻底改变硬件扩展的现状,为AI加速器带来前所未有的速度和能效提升,并使得一些在传统数字处理器上不可行的强大概率AI算法得以实现。 Extropic通过其初步简报,向外界透露了其技术的初步概况,意在吸引更多人加入他们迈向热力学智能未来的旅程。该团队由Gill和Trev领导,他们对在AI时代对计算力日益增长的需求提出了解决方案。尽管传统的CMOS晶体管技术的微型化已经支持了这种需求的增长,但摩尔定律的放缓以及基于物理的限制正使得现代AI的能源需求激增,迫使业界寻求新的计算模式。 与此同时,Extropic指出,生物计算并非严格遵循数字逻辑,而是展现出比人类迄今为止构建的任何设备都要高效的计算能力。他们提出,基于能量的模型(EBMs)和指数族概念在热力学物理学和机器学习中的应用,为设计能够在本质上嘈杂的环境中茁壮成长的AI硬件和软件系统提供了可能的解决方案。 Extropic加速器的设计灵感来源于布朗运动,其中宏观但轻质颗粒在流体中由于与微观液体分子的碰撞而经历随机力。这种机制被用作可编程随机性的来源,通过参数化的随机模拟电路实现,从而大大提高算法基于复杂景观采样的运行时间和能效。 Extropic正在开发的超导芯片利用纳米技术制造,并在低温下运行,利用约瑟夫森效应实现非线性,这对于接入非高斯概率分布至关重要。这些芯片完全被动,仅在测量或操纵其状态时消耗能量,有望成为宇宙中最节能的神经元。 此外,Extropic还在构建室温下运行的半导体设备,以扩大其市场范围。这些设备虽然牺牲了一定的能效,但可以利用标准制造过程和供应链进行生产,有望被打包成GPU式的扩展卡,使得每个家庭都能享受到热力学AI加速的好处。 为了支持广泛的硬件基础,Extropic还在开发一个软件层,这一层从EBMs的抽象规范编译到相关的硬件控制语言,允许Extropic加速器分解并运行在任何给定模拟核心上无法容纳的大型程序。 Extropic的这一系列创新举措,预示着我们即将进入一个全新的人工智能加速领域,其速度和能效的提升超出了之前的想象。 详细: Ushering in the Thermodynamic Future – Litepaper
Midjourney指控Stability AI夜袭数据,网络风波一触即发
最近,Midjourney和Stability AI之间发生了一场小小的风波,真是令人啼笑皆非。Midjourney这家公司居然指责Stability AI的员工企图在一个不眠之夜里偷偷摸摸地搞垮他们的系统,试图把所有的提示和图片对儿全搬走。事情的起因是Midjourney的服务器突然罢工了,导致用户的画廊里突然一片空白,什么也加载不出来。 Midjourney在3月2号的一个Discord更新中把这场服务器停摆归咎于“像僵尸网络一样的活动”,还特别点名这是Stability AI的员工干的好事。他们在3月6日的一个业务更新电话会议上宣布,决定无限期禁止所有Stability AI的员工使用他们的服务,以此作为对方“挑衅”的回应。而且,Midjourney还表示要对任何企图通过“攻击性自动化”搞乱服务的公司员工采取同样的政策。 这事被一个叫Nick St. Pierre的Midjourney用户发到了X上,说是在那个电话会议上听到的。St. Pierre还提到,Midjourney把这场系统大崩溃的原因指向了Stability AI数据团队的某位成员,说是他们试图在一个周六的深夜把所有的提示和图片对全抓走。 Stability AI的CEO Emad Mostaque在X上回应说,他正在调查这个情况,并且强调Stability并没有指示做这种事。他还说,如果真是他们的员工不小心造成的,那肯定不是故意的,也绝不是DDoS攻击。 Midjourney的创始人David Holz也在同一个线程回复Mostaque,声称已经发送了一些信息给他,帮助内部调查。 这场风波到现在还在发酵中,后续怎么发展还得拭目以待。但真有意思的是,据说只有两个账户的爬取活动竟然能引起这么大的服务器停摆。这件事也让人不禁想到了一个讽刺,那些线上创意工作者长久以来一直在批评这些生成AI系统未经许可就使用他们作品的数据来训练模型。而Stable Diffusion和Midjourney两家公司都因为版权问题被告上了法庭,Midjourney更是在去年12月被指控创建了一个艺术家数据库用于训练目的。
马斯克放出豪言,他旗下的xAI要把Grok开源了
马斯克最新创办的AI初创公司xAI即将在本周向大众开源其聊天机器人Grok,此举直接挑战ChatGPT的市场地位。马斯克的这一决定紧随其对OpenAI提起诉讼之后,他抱怨这家由微软支持的初创企业背离了其开源初衷。 去年,xAI推出了Grok,这个服务不仅能接入“实时”信息,还能提供不被“政治正确”约束的观点。这项服务仅对支付X公司每月16美元订阅费的客户开放。 马斯克并未详细说明打算开源Grok的哪些部分。他与Sam Altman共同创立了OpenAI,旨在对抗谷歌在人工智能领域的主导地位。然而,OpenAI本应向公众“免费提供”其技术,但现已成为封闭源代码,并转而专注于为微软谋取利益,这是马斯克在上月末提交的诉讼中提出的指控。 马斯克的诉讼引发了许多技术专家和投资者对开源AI优缺点的热烈讨论。OpenAI的早期支持者之一Vinod Khosla称马斯克的法律行动是“从达到AGI及其好处的目标上分散注意力的巨大干扰”。 Andreessen Horowitz的联合创始人Marc Andreessen则指责Khosla“游说禁止AI领域的开源研究”。Andreessen表示:“每一项能够推动人类福祉的重大新技术都会遭遇被炒作的道德恐慌。这只是最新的例子。” 承诺即将开源Grok将使xAI加入包括Meta和Mistral在内的一系列已向公众发布其聊天机器人代码的公司行列。 长期以来,马斯克一直是开源的支持者。他领导的另一家公司特斯拉已经开源了许多其专利。“特斯拉不会对任何出于善意想要使用我们技术的人发起专利诉讼,”马斯克在2014年说。X公司(前身为推特)去年也开源了一些其算法。 马斯克周一重申了对Altman领导的公司的批评,他表示:“OpenAI是一个谎言。”
谷歌发布创新AI工具Path Foundation和Derm Foundation,突破医学影像解读瓶颈,开启病理学与皮肤科研究新纪元
全球多个专业领域,包括放射学、皮肤科和病理学,普遍面临医学影像专家解读资源短缺的问题。机器学习(Machine Learning, ML)技术有望通过支持工具减轻这一负担,帮助医生更准确、高效地解读这些影像。然而,机器学习工具的开发和实施通常受限于高质量数据、机器学习专业知识和计算资源的可用性。 一个促进机器学习在医学影像领域应用的方法是通过深度学习(Deep Learning, DL)构建特定领域模型,这些模型利用所谓的嵌入向量(embeddings)来捕捉医学影像中的信息。这些嵌入向量代表了图像中重要特征的预先学习理解,通过识别嵌入向量中的模式,与直接处理高维数据(如图像)相比,可以大幅减少训练高性能模型所需的数据量、专业知识和计算需求。 谷歌近期发布了两款针对医学影像领域的研究工具,Path Foundation和Derm Foundation,它们接受影像作为输入,生成专门针对皮肤科和数字病理学影像领域的嵌入向量。这些工具使研究人员可以获取自己影像的嵌入向量,并利用这些向量快速开发新的模型。 在“特定领域优化和自监督模型在组织病理学中的多样化评估”研究中,谷歌展示了自监督学习(Self-Supervised Learning, SSL)模型针对病理学影像的应用优于传统的预训练方法,并能高效地训练下游任务的分类器。该研究主要关注赫马托染色和伊红(H&E)染色的幻灯片,这是诊断病理学中的主要组织染色方法,使病理学家能在显微镜下观察细胞特征。通过使用SSL模型输出训练的线性分类器,其性能与在数量级更多标签数据上训练的先前深度学习模型相匹配。 谷歌还通过Derm Foundation工具应用深度学习解读皮肤病条件影像,包括最近的工作,旨在更好地泛化到新数据集。该工具因其针对皮肤科的特定预训练,拥有对皮肤病影像中存在的特征的潜在理解,可以快速开发用于分类皮肤病的模型。 谷歌计划将这两款工具提供给研究社区,以便探索嵌入向量对于他们自己的皮肤科和病理学数据的实用性。这些工具预期将在包括诊断任务模型开发、质量保证和预分析工作流改进、影像索引和管理以及生物标志物发现和验证等多个用途中促进高效的发展。 注册地址: