大家好!今天我要来和大家分享一个超级有趣的消息——人工智能图像生成器MidJourney刚刚推出了它的第6版!这个版本不仅可以处理更长的提示语,还能更精细地控制颜色和阴影,甚至还能在图片上加文字哦! MidJourney这个工具最初在2022年7月开启公开测试,自那以后,它在图像的质量和准确性上取得了飞速和令人印象深刻的进步。 在这个版本发布之际,MidJourney正面临着来自包括OpenAI的DALL-E 3(能生成文本的AI模型)等竞争对手的越来越大的压力。同样,来自Meta的免费工具和像Leonardo这样的服务也提供了越来越多对图像生成的控制权。 所以,MidJourney v6有哪些新特性呢?最新的这个版本提供了更长的提示语长度,对颜色和阴影的更细粒度控制,以及添加文字的能力。你还可以通过与MidJourney的对话来微调输出结果,就像ChatGPT让你精细调整DALL-E图像一样。 我对MidJourney v6进行了一系列测试,并将输出结果与v5.2版本进行了比较。我发现v6版本在细节上更为丰富,但v5.2则因为经过了几个月的完善,具有更多的特色。 比如说,我让v6版本创建一个名为“Moon Pups”的电影海报,但它没能在图像上添加文字。然后我决定更明确地告诉它包含特定的单词,把它们放在引号中强调。这解决了问题,尽管MidJourney v6在拼写上与DALL-E有着同样的问题。 我来给你们讲讲我最近做的一项超级有趣的测试。就是用MidJourney的v5.2版本(左)和最新的v6版本(右)对同一个提示语生成图像进行对比。这个对比真是太有意思了! 提示语是这样的:”品酒师透过酒杯凝视”。听起来是不是很有画面感?我也是这么觉得的!然后我就迫不及待地看看这两个版本会给我们带来什么样的惊喜。 结果出来了,我发现v6版本的图像在细节上确实更为丰富,就像是把品酒师的每一个细节都描绘得淋漓尽致。但你知道吗,v5.2版本也有它独特的魅力。它经过了几个月的完善,所以在图像的整体感和角色的表现上,似乎更有特色一些。 接着,我分别用MidJourney v5.2和v6从同一个提示语生成了图像进行比较。最后,我还让这两个版本各自创建了一个真人的图像。有些AI模型拒绝生成活人的图片,包括DALL-E,但MidJourney并没有这些顾虑。 我让两个版本都创建了一张Elon Musk骑着独角兽的图片。两者都没有给出任何提示语的细化或进一步指导。5.2版本创建了一个卡通般的描绘,而6版则更像是一张照片。 怎么样,是不是听起来特别有意思?想想看,我们现在可以用MidJourney来创建各种各样的图像,不仅可以是真实的风景,还可以是充满创意的艺术作品哦!这个工具真是为我们打开了一个新世界的大门!
AI在预测生活大事件方面的飞跃,简直就像是科幻小说变成现实!
丹麦技术大学(DTU)、哥本哈根大学、ITU以及美国东北大学的一个研究项目表明,如果使用大量有关人们生活的数据,并训练所谓的“变压器模型”(例如ChatGPT这样用于处理语言的模型),这些模型可以系统地组织数据并预测一个人生活中将会发生的事情,甚至估计死亡时间。 该项目展示了一个机器化的女性形象。研究人员指出,下一步将是结合其他类型的信息,如文本和图像,或我们的社交联系信息。图片来源:神经科学新闻。 在新发表在《自然计算科学》杂志上的科学文章《使用生活事件序列预测人类生活》中,研究人员分析了600万丹麦人的健康数据和劳动市场联系情况,使用了一个名为life2vec的模型。在模型经过初期训练,即学习了数据中的模式之后,它已被证明比其他先进的神经网络(见事实框)表现更好,并能高精度预测个性和死亡时间等结果。 “我们使用这个模型来解决一个基本问题:我们能在多大程度上根据你过去的条件和事件预测你未来的事件?对我们科学上来说令人兴奋的不仅是预测本身,而是那些使模型能够提供如此精确答案的数据方面,”DTU教授、文章的第一作者Sune Lehmann说。 死亡时间的预测 Life2vec的预测是对诸如“四年内死亡”等普遍问题的回答。 当研究人员分析模型的响应时,结果与社会科学领域现有的发现一致;例如,在其他条件相同的情况下,领导职位或高收入的个体更有可能存活,而男性、熟练工人或有精神诊断的人则与较高的死亡风险相关。 Life2vec以大型向量系统的形式对数据进行编码,这是一种组织不同数据的数学结构。该模型决定如何在出生时间、教育、工资、住房和健康等方面放置数据。 “令人兴奋的是,将人类生活视为一长串事件的方式,类似于语言中的句子是由一系列词组成的。这通常是AI中变压器模型用来处理的任务类型,但在我们的实验中,我们使用它们来分析我们所说的生活序列,即人类生活中发生的事件,”Sune Lehmann说。 提出伦理问题 该文章的研究人员指出,life2vec模型围绕着伦理问题,如保护敏感数据、隐私和数据偏见的角色。在可以用该模型来评估个人患病风险或其他可预防的生活事件之前,必须更深入地了解这些挑战。 “这个模型开辟了重要的积极和消极观点,需要在政治上讨论和解决。类似的用于预测生活事件和人类行为的技术今天已在科技公司内部使用,例如,追踪我们在社交网络上的行为,极其准确地对我们进行画像,利用这些画像来预测我们的行为并影响我们。 “这个讨论需要成为民主对话的一部分,以便我们考虑技术带领我们走向何方,以及这是否是我们想要的发展方向,”Sune Lehmann说。 根据研究人员的说法,下一步将是结合其他类型的信息,如文本和图像或我们的社交联系信息。这种数据的使用开辟了社会和健康科学之间全新的互动。
微软推出了GPT-RAG:这是一个机器学习库,为在Azure OpenAI上使用RAG模式生产部署大型语言模型(LLMs)提供了企业级参考架构
去试试 https://github.com/Azure/GPT-RAG 随着AI的飞速发展,大型语言模型(LLMs)因其解读和生成类似人类文本的能力而日益受到欢迎。但是,将这些工具整合到企业环境中,同时确保可用性和维护治理架构却是一个挑战。复杂性在于在利用LLMs提高生产力和确保强健的治理框架之间找到平衡。 为了应对这一挑战,微软Azure推出了GPT-RAG,一个专为使用检索增强生成(RAG)模式生产部署LLMs而设计的企业级RAG解决方案加速器。GPT-RAG拥有强大的安全框架和零信任原则,确保敏感数据得到最大程度的小心处理。GPT-RAG采用零信任架构概览,包括Azure虚拟网络、Azure前门带有Web应用防火墙、堡垒提供安全的远程桌面访问和Jumpbox用于访问私有子网中的虚拟机等特性。 此外,GPT-RAG的框架支持自动扩展,确保系统能够适应波动的工作负载,在高峰时期提供无缝的用户体验。该解决方案通过将Cosmos DB纳入未来潜在的分析存储来展望未来。GPT-RAG的研究者强调,它拥有全面的可观察性系统。企业可以通过Azure应用洞察提供的监控、分析和日志,获得系统性能的洞察,从而帮助他们持续改进。这种可观察性确保了操作的连续性,并为在企业环境中优化LLMs部署提供了宝贵的数据。 GPT-RAG的关键组件包括数据摄取、协调器和前端应用。数据摄取优化了数据准备以适用于Azure OpenAI,而使用Azure应用服务构建的应用前端确保了流畅且可扩展的用户界面。协调器维护用户互动的可扩展性和一致性。AI工作负载由Azure Open AI、Azure AI服务和Cosmos DB处理,为企业工作流中具有推理能力的LLMs创造了一个全面的解决方案。GPT-RAG使企业能够有效地利用LLMs的推理能力。现有模型可以基于新数据处理和生成响应,无需不断的微调,简化了业务流程的整合。 总之,GPT-RAG可以是一个开创性的解决方案,确保企业利用LLMs的推理能力。通过强调安全性、可扩展性、可观察性和负责任的AI,GPT-RAG可以彻底改变企业整合和实施搜索引擎、评估文档和创建质量保证机器人的方式。随着LLMs的持续进步,诸如这些的保护措施对于防止误用和潜在后果造成的潜在伤害至关重要。此外,它使企业能够在其企业内无与伦比的安全性、可扩展性和控制下,利用LLMs的力量。
Playground AI刚刚推出了它的新宠儿——Playground V2,去试试?
Playground AI刚刚推出了它的新宠儿——Playground V2,这是一个基于扩散的文本到图像模型,比起之前的Stable Diffusion XL,用户偏爱度高出了2.5倍!这个新模型可以在HuggingFace上找到,提供基础和审美两种版本,分辨率高达1024px。最酷的是,用户每天可以在Playground的网站上免费生成500张图片,并且还允许商业使用哦。去试试? https://playground.com/ Playground V2不仅仅是一个模型,它还是Playground追求发展先进视觉AI系统大目标中的一部分。想象一下,不仅能创造3D环境,还能分析视频场景,是不是感觉未来已经来到眼前?这绝对是给那些爱好者和专业人士提供无限可能的一大步。嗨,各位小伙伴们,准备好探索这个新世界了吗?🚀🌌 #AI新星 #视觉革命 #PlaygroundV2
谷歌史上最强AI模型”双子星座”来了,但这又怎样?
最近,谷歌大张旗鼓地推出了其最新的AI模型“双子星座”,这个被设计来与OpenAI竞争的模型,一开始就给人留下了深刻的印象。它不仅有着出色的基准测试成绩,还有一段光鲜亮丽的视频演示,且立即提供了一个简化版本供使用,这一切都显示出谷歌的自信。 然而,当AI工程师和爱好者仔细研究细节时,这股积极情绪很快就变了味。尽管“双子星座”是一个令人印象深刻的新进入者,可能最终会削弱GPT-4的主导地位,但谷歌含糊其辞的信息传递让它不得不开始进行辩护。 北美一家大型零售商的首席AI工程师艾玛·马蒂斯(Emma Matthies)谈到这个问题时说:“现在还有很多问题没有答案。”她指出,“我发现谷歌的‘双子星座’视频演示与谷歌技术博客中的细节存在不连贯之处。” 谷歌的“双子星座”演示引发了批评。AI开发者注意到了其中的不一致之处。这个名为“亲身体验双子星座”的演示在YouTube上与“双子星座”的发布同时推出。它节奏快、友好、有趣,还包含了许多易于理解的视觉示例。但它也夸大了“双子星座”的工作方式。 谷歌的一位代表表示,演示“展示了真实的‘双子星座’提示和输出。”但视频的编辑省略了一些细节。与“双子星座”的交互是通过文本进行的,而不是语音,AI解决的视觉问题是通过图像输入的,而不是实时视频。谷歌的博客还描述了演示中未显示的提示。当被要求识别基于手势的剪刀石头布游戏时,“双子星座”被给了一个提示:“这是一个游戏。”但演示省略了这个提示。 这只是谷歌问题的开始。AI开发者很快意识到,“双子星座”的能力并没有起初看起来那么革命性。 “如果你看看GPT-4 Vision的能力,并为其构建合适的界面,它与‘双子星座’相似,”马蒂斯说。“我做过类似的边缘项目,社交媒体上也有类似的实验,比如‘大卫·阿滕伯勒正在解说我的生活’的视频,非常有趣。” 在“双子星座”发布五天后的12月11日,一位名叫格雷格·萨德茨基(Greg Sadetsky)的AI开发者用GPT-4 Vision粗略地重现了“双子星座”的演示。随后,他进行了“双子星座”与GPT-4 Vision之间的头对头比较,结果对谷歌不利。 谷歌在基准数据方面也遭到批评。作为家族中最大的三个模型之一,“双子星座Ultra”号称在多种基准测试中胜过GPT-4。这在很大程度上是正确的,但引用的数据被精心挑选,以使“双子星座”显得更加优秀。 谷歌在测量性能时使用的方法与其他人不同。用户如何提示AI模型会影响其性能,且只有在使用相同的提示策略时,结果才具有可比性。 GPT-4在一个名为大规模多任务语言理解(MMLU)的基准测试上的表现是使用所谓的少量提示(few shot prompting)来衡量的。不提供背景信息地提问被称为“零次提示”(zero-shot prompt),而提供几个示例则是“少量提示”(few-shot prompt)。 另一种方法是引导AI模型通过推理找到答案。Guildhawk的首席人工智能工程师理查德·戴维斯(Richard Davies)指出,“双子星座”是使用这样的链式推理方法进行测量的。“这不是一个公平的比较。” 谷歌关于“双子星座”的论文提供了一系列比较,但其营销活动比较了不同的策略,以使其结果看起来更好。它还完全专注于尚未向公众开放的“双子星座Ultra”。目前唯一可用的“双子星座Pro”提供的结果不那么令人印象深刻。 尽管信息传递上有失误,“双子星座”仍给人留下深刻印象。关于“双子星座”介绍的问题给其公告投下了阴影。然而,撇开不真诚的营销不谈,“双子星座”仍然是一个令人印象深刻的成就。 “双子星座”是多模态的,这意味着它可以在文本、图像、音频、代码和其他媒体形式上进行推理。这并不是“双子星座”所独有的,但大多数多模态模型要么不公开,要么难以使用,或者专注于特定任务。这使得OpenAI的GPT-4在这个领域占据主导地位。 马蒂斯说:“至少,我期待有一个强大的替代品和GPT-4及其新的GPT-4视觉模型的有力竞争者,因为目前还没有同类产品。” 戴维斯对“双子星座”的基准表现感到好奇,尽管挑选了数据,但在几个类似的场景中显示出显著的改进。 “从GPT-4的86.4%提高到‘双子星座’的90%,大约有4%的提升。但就实际减少的错误量而言,它减少了超过20%……这是相当多的。”戴维斯说。即使是小幅度的错误减少,在每天接收数百万请求的模型中也会产生巨大影响。 “双子星座”的命运尚未确定,它取决于两个未知数:“双子星座Ultra”的发布日期和OpenAI的GPT-5。虽然用户现在可以尝试“双子星座Pro”,但其更大的兄弟姐妹要到2024年某个时候才会发布。AI发展的快速步伐使得很难说“Ultra”一旦到来将如何表现,并且给了OpenAI充裕的时间来用一个新模型或GPT-4的改进版本作出回应。
CRISPR 基因编辑如何助力治疗阿尔茨海默症
阿尔茨海默病,这个听上去有点拗口的词,却代表着一种残酷的现实:超过5500万人在与它抗争,到2050年,这个数字可能还要翻三倍。 我们对大脑的运作还知之甚少,就像一座迷宫,阿尔茨海默病就藏在这迷雾深处。传统的药物只能延缓病情,对晚期患者或高危人群作用寥寥。 但是,科技的脚步从未停歇!就上个月,一种利用基因剪刀的疗法获得了首个批准,用于治疗镰状细胞贫血和β地中海贫血。这种精准剪辑基因的技术,能不能也用在阿尔茨海默病上呢? 科学家们跃跃欲试。淀粉样斑块和tau蛋白团块,是阿尔茨海默病的两大标志。新的研究发现,APOE基因的一个变体——基督城变体,竟能让人即使拥有高危基因,也到70多岁才出现症状!科学家们用基因剪刀将这种变体植入小鼠,惊喜地发现,携带这种变体的第二代小鼠,居然对阿尔茨海默病产生了抵抗力! 另一个靶点则是PS1基因。它的突变会导致一种毒性更强的淀粉样蛋白42大量产生,引发早发性阿尔茨海默病。科学家们用基因剪刀剪断了突变的PS1基因,成功降低了PS1和淀粉样蛋白42的水平,为治疗早发性阿尔茨海默病开辟了新的道路。 当然,从实验室到临床,还有着漫长的路。基因编辑并非万无一失,可能会伤及无辜的健康基因,甚至整个染色体。把基因剪刀带入大脑更是难上加难,目前还没有任何相关的人体试验。 不过,科学家们并没有气馁。Roy博士团队已经在动物实验中成功编辑了APP4基因,并获得了美国国家卫生研究院的资助,即将进入临床前阶段。他希望有一天,神经学家只需给阿尔茨海默病患者注射一次基因剪刀,就能让这个恶魔消失。 基因剪刀 虽然还有挑战,但曙光已现。基因剪刀,也许真的能帮我们打开阿尔茨海默病治疗的大门,让更多人在迷雾中走出康庄大道。 科技时尚,科幻,充满希望 基因剪刀的出现,为阿尔茨海默病的治疗带来了新的希望。这种精准、高效的技术,有可能彻底治愈这种可怕的疾病。 在未来,基因剪刀或许还能用于治疗其他神经退行性疾病,甚至是癌症。它将开启一个全新的医学时代,让人类对疾病的理解和治疗能力都得到革命性的提升。
Mixtral-8x7B 超炫的开源“sparse model”(稀疏模型)
最近,Hugging Face ChatBot Arena 推出了两款先进的语言模型,Mixtral 8x7b 和 Gemini Pro,它们的性能堪比 GPT-3.5 哦!Mixtral 8x7b 是一款开源且可能更具成本效益的选择,在排行榜上稍微领先于 Gemini Pro,并与 GPT-3.5 Turbo 不相上下。这些模型可以用来回答问题或完成任务,展示了 AI 驱动的聊天机器人领域的不断发展。想象一下,你可以和这些高智能的机器人聊天,获取信息,甚至是求解生活难题,是不是感觉超级酷炫?别忘了,这可是科技的最新力作,让我们一起来见证 AI 的神奇魅力吧! 在 Hugging Face Chat 上,你现在就可以和 Mixtral Instruct 模型聊天啦!快来体验一下吧:https://huggingface.co/chat/?model=mistralai/Mixtral-8x7B-Instruct-v0.1. Mixtral 这个模型可真是有趣,它的架构类似于 Mistral 7B,但有一个独特的转折:它实际上是 8 个“专家”模型的组合,这都得益于一种称为“专家混合”(Mixture of Experts, MoE)的技术。在变压器模型中,这种技术是通过用稀疏的 MoE 层替换一些前馈层来实现的。MoE 层包含一个路由网络,用于选择哪些专家处理哪些标记最有效。在 Mixtral 的案例中,每个时间步会选择两个专家,这使得该模型在解码速度上能够匹敌一个拥有 12B 参数的密集模型,尽管它实际包含了 4 倍的有效参数数量! 想象一下,这就像是有一个超级团队,每个成员都是各自领域的专家,他们共同协作,用最高效的方式完成任务。就好像是每次你问问题,都有 8 个小脑瓜在那里急速运转,为你找到最佳答案。这不仅仅是技术上的创新,更像是一次智慧的盛宴。Mixtral 这种 AI 模型的出现,无疑是打开了人工智能世界的又一扇大门,让我们期待它未来的表现吧!
Meta与Ray-Ban合作推出了一款全新智能眼镜外观时尚,而且搭载了能够“看到“你所看到的一切的人工智能技术
“嘿,Meta,看看这个,告诉我哪些茶是无咖啡因的。” 当在Meta位于纽约总部戴着一副Meta Ray-Ban智能眼镜说出这句话时,正盯着桌上用记号笔涂黑了咖啡因标签的四个茶包。耳边传来轻微的点击声,紧接着Meta的AI声音告诉我,洋甘菊茶可能是无咖啡因的。它正在阅读标签并使用生成式AI做出判断。 这是我正在测试的一个功能,从今天开始就会推出到Meta的第二代Ray-Ban眼镜上 —— 这个功能是Meta首席执行官马克·扎克伯格在去年九月新眼镜发布时已经承诺的。这些AI功能,可以通过Meta眼镜上的摄像头查看图像,并用生成式AI进行解读,原本计划于2024年推出。Meta比我预期的更早引入了这些功能,尽管早期访问模式仍然非常是测试版。除了将Bing支持的搜索添加到Ray-Ban的新更新中,这增强了眼镜已有的语音激活功能,Meta的眼镜正在迅速获得新能力。 这次演示让我惊叹,因为我从未见过类似的东西。我看过一部分:Google Lens和其他手机上的工具已经在使用相机和AI,而Google Glass —— 十年前 —— 有一些翻译工具。然而,Meta眼镜调用AI来识别我周围世界中的东西的方式简单直接,感觉相当先进。我很兴奋能够尝试更多。 这些眼镜没有显示屏,AI只回应声音。但Meta View手机应用程序会保存照片和AI的回应以供日后查看。 Meta 多模态AI:目前的工作方式 目前这项功能还有限制。它只能通过拍照来识别你所看到的东西,然后AI进行分析。在发出语音请求后,你会听到快门声,然后几秒钟后会有回应。语音提示也很长:Meta眼镜上的每一个语音请求都需要以“嘿,Meta”开始,然后你需要跟上“看看并”(我最初以为需要说的是“嘿,Meta,看看这个”)来触发拍照,紧接着是你想让AI做的事情。“嘿,Meta,看看并告诉我用这些食材有哪些食谱。” “嘿,Meta,看看并编一个有趣的标题。” “嘿,Meta,看看并告诉我这是什么植物。” 每个请求都会触发快门声,然后是AI阅读图像并解释它的几秒钟暂停。这与手机上的AI相机应用程序的工作方式类似,除了戴在你脸上并且通过声音控制。 每个AI的回应和它查看的照片都储存在与眼镜配对的Meta View手机应用程序中。我喜欢这一点,因为它是后来的视觉/书面记录,就像记忆提示的笔记。我可以想象在某处漫步并提出问题,将其用作我的眼睛的某种头戴式Google搜索,无论是购物还是其他。 Meta的这款智能眼镜,不仅仅是科技的尖端产物,它的辅助功能也非常值得关注。想象一下,当我戴着这副没有配我视力的试验款Meta眼镜,询问它我正在看什么时,尽管回答在细节和准确性上有所不同,但它确实能给出一个大概的指引。它甚至能识别出我手中的眼镜,注意到镜片带有蓝色调(蓝黑框架,相当接近实际情况)。 不过,这副眼镜有时也会“产生幻觉”。比如我问桌前碗中的水果,它正确地列出了橙子、香蕉、火龙果和苹果,但错误地认为还有石榴(其实并没有)。当我让它为窗前的一个大毛绒熊猫编写标题时,它创造了一些可爱的标题,但有一个与实际情况不符,描述了一个孤独地看手机的场景。 当我看着一份西班牙语菜单,询问眼镜显示辛辣菜肴时,它能读出一些菜名并为我翻译关键食材,但当我再次询问含肉的菜肴时,它又用西班牙语回答了。 这项技术的可能性令人兴奋,而且可能极其有用。Meta承认,这次早期推出旨在发现漏洞并帮助改进眼镜上的AI工作方式。我发现有些时候需要频繁说“嘿,Meta,看看”,但这个过程可能会随着时间改变。当进行即时图像分析时,提出直接的后续问题有时可以不用再说“看看”,但这种做法的成功率可能会有所不同。 这种AI被Meta称为“多模态AI”,因为它结合了相机和语音聊天的功能,是公司计划将来将多种形式的输入混合在一起的AI的先驱,包括更多的感官数据。Qualcomm专注于AI的芯片组在Meta的新款Ray-Ban上已经准备好承担更多任务。Meta还计划随着时间的推移使这一过程更加无缝。 Meta首席技术官Andrew Bosworth曾在去年九月说,尽管眼镜现在需要语音提示来激活和“看到”以节省电池寿命,但最终它们将“配备足够低功耗的传感器,能够检测到触发意识的事件,进而触发AI。这正是我们正在努力实现的梦想。” Meta还在研究将多种形式的感官数据融合在一起的AI工具,以备更先进的未来可穿戴设备。 现在,这还是一个早期访问的测试版。Meta在这一阶段使用匿名查询数据来帮助改进其AI服务,这可能会引起一些关注隐私的人的担忧。我还不清楚具体的选择加入细节,但一旦最终的AI功能推出,可能是明年,更多离散的数据共享控制似乎可能到位。
微软近日推出了Phi-2,这是一款小型语言模型,但其性能却十分强大
来这里看看: https://huggingface.co/microsoft/phi-2 当我们谈论与生成性人工智能(AI)相关的语言模型时,我们通常首先想到的是大型语言模型(LLM),这些模型驱动了大多数流行的聊天机器人,例如ChatGPT、Bard和Copilot。然而,微软的新型语言模型Phi-2展示了小型语言模型(SLM)在生成性AI领域也有巨大的潜力。 微软于周三发布了Phi-2,这是一款能够进行常识推理和语言理解的小型语言模型,现已在Azure AI Studio模型目录中提供。尽管Phi-2被称为“小型”,但它在模型中包含了27亿参数,远超过Phi-1.5的13亿参数。Phi-2在不到130亿参数的语言模型中展现了“最先进的性能”,甚至在复杂基准测试中超越了规模大25倍的模型。Phi-2在多个不同的基准测试中超越了包括Meta的Llama-2、Mistral以及谷歌的Gemini Nano 2在内的模型,Gemini Nano 2是谷歌最强大LLM的最小版本。 Phi-2的性能结果与微软开发具有突破性能力和与大规模模型相当性能的SLM的目标一致。 微软在训练Phi-2时非常挑剔地选择了数据。公司首先使用了所谓的“教科书质量”数据。微软随后通过添加精心挑选的网络数据来增强语言模型数据库,这些数据在教育价值和内容质量上经过了筛选。 那么,为什么微软专注于SLM? SLM是LLM的一种成本效益较高的替代品。在不需要LLM的强大能力来完成任务时,较小的模型也很有用。 此外,运行SLM所需的计算能力远低于LLM。这种降低的要求意味着用户不必投资昂贵的GPU来满足他们的数据处理需求。
最近的数据显示,由于人工智能的发展,失业人数正在增加 然而,这些数字并不能完全反映出真实情况
马斯克坚称,人工智能将带领人类进入一个“不需要工作”的时代。这一预测已经开始变为现实了吗?从表面上看,一些关键数据似乎确实如此。 根据ResumeBuilder的一份报告,他们调查了750名使用AI的企业领导,结果显示,37%的受访者表示2023年他们的技术已经替代了工人。同时,44%的人预测2024年会因为AI的高效性导致裁员。 尽管有关AI引发裁员的报道不断,但许多专家并不同意马斯克的观点。 ResumeBuilder的简历和职业策略师朱莉娅·图思克尔指出,他们的研究数据可能无法准确反映广阔的商业领域。“还有很多传统机构和小型企业并没有像一些大公司那样拥抱技术,”图思克尔说。 裁员是现实,但AI技术也使企业领导者有机会重组和重新定义我们的工作。 Asana的首席产品官亚历克斯·胡德估计,我们在工作中花费的一半时间都在做他所谓的“关于工作的工作”,比如状态更新、跨部门沟通以及其他非核心工作内容。 “如果AI能够减少这部分工作,那将是一个巨大的解放,”胡德说。 他还表示,如果没有数据背后的细节,标记和预测AI引起的裁员的统计数据更多地反映了恐惧而非现实。 随着AI处理基于任务的工作,人类有机会向价值链的更高层次发展,Leet Resumes和Ladders的创始人马克·塞内德拉说。“对整个经济来说,”塞内德拉表示,工人将能够专注于“整合、构建或定义基于任务的工作。”他将这一转变比作上世纪中叶的办公室文化,当时有整层楼的打字员——这是文字处理器效率所消除的。 白领工作和“以人为中心”的AI 根据Asana的《2023年工作中的AI状态》报告,员工表示他们29%的工作任务可以被AI替代。然而,Asana是“以人为中心的AI”的支持者,旨在增强人类能力和协作,而不是直接取代人类。报告称,人们越了解以人为中心的AI,就越相信它会对他们的工作产生积极影响。 根据联合国的数据,全球白领和文职工作者占就业人口的比例在19.6%到30.4%之间。多年来,分析和沟通工具已经改变了知识工作,而“生成型AI应被视为这一长期变革连续中的另一发展。” 但截至2022年,全球34%的人口仍然无法上网,因此,关于AI对裁员和可能的工作重组的影响的讨论,还需要包括技术有无之间更广泛的鸿沟。 工作者的个人责任和AI的调整 对于希望在AI驱动的工作环境中避免被取代的专业人士来说,有步骤可以采取。 塞内德拉表示,作为现代白领专业人士,需要承担一定的个人责任。“你的工作的一部分就是不断发展新技能,”他说。“如果你五年前学习了一些软件,那是不够的。你必须学习今天的新软件。” 尽管像研究和数据分析这样的岗位可能会被AI自动化,但公司仍然需要有人来启动AI,理解结果,并采取行动。 “我对任何人的建议都是,了解AI可能如何影响你所在行业中的职位,”图思克尔说。“至少你可以预见到可能发生的事情,而不是对正在发生的事情一无所知。” 但塞内德拉也认识到,企业领导者有责任在公司任职期间帮助员工继续发展他们的技能。“出于自身利益,那些资助员工发展的公司将更有可能领先于那些不这么做的公司,”他说。 即使胡德,作为使用AI创建协作和项目管理解决方案的前线人员,也仍在尝试自己的产品。在为团队成员准备即将到来的绩效评估时,胡德尝试让AI总结他与团队成员的协作情况。 AI生成了一个列表,列出了他们共同感兴趣的所有事物、他们之间的所有任务和反馈,以及基于他们相互发送的消息对他们关系的描述。在这一点上,胡德展示了AI尝试的样子。 “你通过向它提问并看看它能做什么来学习它,有时会感到失望,有时会感到惊讶,然后倾向于那样做,”胡德说。“雇主能做的最好的事情就是让员工有能力了解通过今天使用AI进行个人实验的可能性。” 尽管当前一代AI导致了裁员,但历史上没有证据表明像这样的技术进步会导致大规模失业。劳动力具有历史性的可塑性,增加的技术能力可能会导致“更高价值”的工作,正如塞内德拉所说——以及更高的生产力,未来一代AI很可能会学会处理。