IBM 最近发布了超过 1000 量子比特的首台量子计算机,这在普通电脑的数字比特中简直是个划时代的进步。但公司表示,接下来将转变重心,专注于提高机器的抗错误能力,而不再追求增大其规模。 多年来,IBM 按照一条量子计算路线图稳步前进,大约每年量子比特数翻一番。12月4日公布的这款芯片名为“秃鹰”,拥有1121个超导量子比特,以蜂窝状排列。它继承了之前创纪录的鸟类命名系列,包括2021年的127量子比特芯片和去年的433量子比特芯片。 量子计算机承诺实现传统计算机难以触及的某些计算。它们通过利用唯有量子特有的现象,如纠缠和叠加,使多个量子比特同时处于多种集体状态,来实现这一目标。 但这些量子状态也非常不稳定,容易出错。物理学家们试图通过促使几个物理量子比特——例如在超导电路或单个离子中编码的量子比特——共同工作,代表一个信息量子比特,即“逻辑量子比特”。 作为新战略的一部分,该公司还推出了一款名为“苍鹭”的芯片,拥有133个量子比特,但错误率创纪录地低,比它之前的量子处理器低了三倍。 研究人员普遍认为,最先进的错误纠正技术将需要超过1000个物理量子比特来支持一个逻辑量子比特。然后,一个能进行有用计算的机器需要拥有数百万个物理量子比特。 但近几个月来,物理学家对一种叫做量子低密度奇偶校验(qLDPC)的替代错误纠正方案感到兴奋。根据IBM研究人员的预印本,这种方法有望将所需量子比特数减少10倍甚至更多。公司表示,现在将专注于制造旨在仅用大约400个物理量子比特就能容纳几个经qLDPC纠正的量子比特的芯片,并将这些芯片网络化。 哈佛大学物理学家Mikhail Lukin表示,IBM的预印本是“出色的理论工作”。但他也说,用超导量子比特实现这一方案极具挑战性,可能需要数年时间才能进行初步的概念验证实验。Lukin及其合作者进行了类似的研究,探讨使用单个原子而非超导环来实现qLDPC。 qLDPC技术的难点在于,它要求每个量子比特至少直接连接六个其他量子比特。在典型的超导芯片中,每个量子比特只连接两个或三个邻居。但IBM量子的首席技术官、位于纽约约克镇高地的IBM Thomas J. Watson研究中心的凝聚态物理学家Oliver Dial表示,公司有一个计划:它将在量子芯片的设计中增加一层,以实现qLDPC方案所需的额外连接。 IBM今天公布的新量子研究路线图预计到本世纪末将实现有用的计算——例如模拟催化剂分子的工作。“这一直是我们的梦想,也一直是一个遥远的梦想,” Dial说。“能够看到从我们今天所处的位置到达那里的路径,对我来说是巨大的。”
Author: aitrendtrackers@rengongzhineng.io
加州大学伯克利分校研究人员推出Starling-7B:一款通过人工智能反馈强化学习(RLAIF)训练的开源大型语言模型(LLM)
人工智能大型语言模型(LLM)在自然语言处理任务中扮演着重要角色。这些模型通过大量数据集进行训练,能够理解和生成类似人类的文本。它们已经彻底改变了自然语言处理的领域,因为它们能够理解和发展出类人的文本。这些模型在生活的各个领域都有着广泛的应用。 加州大学伯克利分校的研究人员最近推出了一款开源大型语言模型Starling-7B。该模型通过从人工智能反馈中学习强化(RLAIF)进行训练。它不仅利用了我们最新开发的奖励训练和策略调整管道,还结合了新的GPT-4标记排名数据集Nectar以及先进的奖励训练和策略调整管道。 Starling-7B: Increasing LLM Helpfulness & Harmlessness with RLAIF Starling-7B的基础是GPT-4标记排名数据集Nectar。该数据集包含183,000个聊天提示,每个提示提供来自不同模型(如GPT-4、GPT-3.5-instruct、GPT-3.5-turbo、Mistral-7B-Instruct和Llama2-7B)的七种响应,共计380万对比较。为了确保公平性,研究人员在使用GPT-4进行排名时,投入了大量精力来减少位置偏见,这一过程在数据集部分有详细说明。 https://huggingface.co/berkeley-nest/Starling-LM-7B-alpha 他们使用学习奖励模型对Openchat 3.5语言模型进行了改进,并取得了令人印象深刻的成果。AlpacaEval评分从88.51%提高到91.99%,而MT-Bench评分从7.81提高到8.09。这些指标作为标准,评估了聊天机器人的实用性。 研究人员还用直接偏好优化(DPO)方法,将该模型与早期的开源模型(如Zephyra-7B、Neural-Chat-7B和Tulu-2-DPO-70B)进行了测试。尽管这些模型在Chatbot Arena中表现良好,但与顶级的SFT模型(如OpenHermes 2.5和Openchat 3.5)相比,它们还未能完全发挥RLHF的全部潜力。 研究人员强调,该模型还面临一些挑战。它容易受到欺骗或操纵方法的影响。此外,该模型在数学或推理任务上表现不佳,其输出的事实准确性有时也无法保证。他们还指出,该模型偶尔会出现冗长和易受越狱提示的问题。尽管如此,他们仍致力于改进Starling-7B。 为了解决这个问题,他们提出进一步完善该模型,利用基于规则的奖励模型,其中GPT-4作为指导,使用GPT-4技术报告中概述的技术。 总之,Starling-7B代表了LLM领域的重大进步,展示了通过人工智能反馈进行强化学习的可能性。自然语言处理领域因这些模型与社区共享知识的合作而得到增强。研究人员正在努力提高模型的性能并解决其局限性。
谷歌的最新人工智能实验,让你能够创造出受各种乐器启发的音乐
谷歌持续推动科技的边界,这次他们进军音乐领域。为了庆祝即将到来的节日季,这个搜索巨头正在进行一项新的人工智能实验。谷歌艺术与文化实验室的驻地艺术家西蒙·杜里为公司设计了一个名为“乐器游乐场”的新型AI工具。这个工具能帮助用户创作出受全球各种乐器启发的音乐。 去试试: https://artsandculture.google.com/experiment/8QFo2oQr2uT3pg 谷歌在其博客中表示:“开始你的旅程,通过探索来自世界各地的10种较不为人知的乐器,了解更多关于印度、韩国、日本或巴西的传统乐器和音乐。”这项AI实验由谷歌的MusicLM驱动,这是一款于今年五月向公众发布的文本到AI工具。它能根据文本描述生成任何类型的高保真音乐,可在AI测试厨房应用程序的网页、安卓或iOS上使用。 谷歌AI工具MusicLM乐器库 也阅读:一加有一个AI音乐商店:现在就可以创造你自己的音乐视频 它是如何工作的 该工具接受了来自世界各地的100种乐器的训练,包括来自印度的“维纳”、来自中国的“笛子”和来自津巴布韦的“姆布里亚”。只需输入一个乐器的名称和一个可选的形容词,MusicLM就可以生成一个20秒的音频剪辑来启动你的音乐创造力。此外,你还可以向你的提示中添加形容词,如“忧郁”、“快乐”或“浪漫”,以塑造结果。 请注意,它可能会莫名其妙地拒绝某些形容词。然而,生成的音乐可能并不总是与输入乐器的确切声音相符。例如,输入“愤怒的大号”可能会产生合成的管风琴声音,而不是激烈的铜管独奏。类似地,“奇怪的迪吉里杜管”听起来像汉斯·季默的配乐中的一个不祥部分。结果看起来像是有层次的声音的抽象组合,它们(有点)捕捉到了提示的‘感觉’,而不是具体的‘声音’。 在其博客文章中,该公司指出,用户可以添加词汇“欢快”或“愉快”来创作节日铃声。在生成了他们喜欢的片段后,用户可以进一步定制作品的多个组成部分,如“氛围”、“节拍”和“音高”,使其更加独特。该工具甚至允许用户在探索不同的音效时播放和创作音频剪辑。 此外,用户还可以通过选择高级模式尝试使用序列器。这将帮助他们层叠和循环最多四种乐器。谷歌还创作了一些节日铃声,包括“Chime Chime Ya”——一首受节日风铃启发的经典铃声作品,以及“Ho Ho Ho”——一首向圣诞老人致敬的作品,它融合了“节日教堂钟声”和“天堂般的锣声”。一旦对他们的创作感到满意,用户可以将其下载为“.wav文件”。 在这里尝试谷歌的新乐器游乐场工具。谷歌使开始使用这个实验制作抽象音乐变得非常流畅。用户可以玩得开心,使用不同的提示和乐器创作各种曲目。然而,值得注意的是,该工具在某些情况下似乎并不正常工作,有时会完全拒绝其他提示。在某些情况下,还会弹出错误,表示不允许引用特定艺术家的提示。希望谷歌将很快解决这个问题。
AI “自主运行”的计算机概念正逐渐成为现实
晚上和新生儿在一起的时光,有时会催生出意想不到的突破。OthersideAI的开发人员Josh Bickett就是在一次深夜喂养女儿时,萌生了一个开创性的“自主运行计算机框架”的想法。Bickett向VentureBeat解释说:“我非常享受和我四周大的女儿在一起的时光,这段时间我学到了很多关于为人父的新课程。但同时,我也有点时间去思考,因为我看到了GPT-4视觉的不同演示。我们现在正在研究的事情实际上可以通过GPT-4视觉实现。” 在抱着女儿的同时,Bickett在电脑上勾勒出了基本框架。“我找到了一个初步的实现……它在正确点击鼠标方面还不是很好。但我们正在做的是定义问题:我们需要弄清楚如何操作计算机。”当OthersideAI的联合创始人兼CEO Matt Shumer看到这个新框架时,他意识到了它巨大的潜力。Shumer对VentureBeat说:“这是通往计算机自动驾驶的里程碑。我们现在拥有传感器。我们有激光雷达系统。接下来,我们要构建智能。” 正如Bickett所描述的,这个框架“让AI控制鼠标的点击位置和所有键盘触发器。它就像一个自动GPT代理,但它不是基于文本的。它是基于视觉的,所以它会截取电脑屏幕的截图,然后决定鼠标点击和键盘操作,就像人类一样。”Shumer进一步阐释了这个框架如何代表了超越之前完全依赖APIs的方法的重大进步。“很多人在计算机上做的事情,你用APIs是做不到的,这是很多其他人在解决这个问题时的方法,他们想要构建一个代理。他们在这项服务的公开API之上构建它,但这并不能扩展到所有东西。”正如Shumer所断言的,“如果你真的想解决一个自主的问题,可以真正帮助我们或让我们完成更多的事情。你必须允许它像人一样工作,因为世界是为人们构建的。”这个框架将屏幕截图作为输入,输出鼠标点击和键盘命令,就像人类一样。但正如Bickett和Shumer所承认的,真正的潜力不在于轻量级框架本身,而在于可以插入它的先进的计算机视觉和推理模型。“框架将只是插入和播放,你只需要插入一个更好的模型,它就会变得更好,”Bickett说。 看看怎样: 当被VentureBeat问及未来的影响时,Shumer描绘了一个大胆的愿景:“一旦这个东西足够可靠,它将成为你的电脑,它将成为你进入数字世界的界面。”有了自主运行计算机框架,先进的AI模型可以学会通过对话命令接管所有计算机交互。正如Shumer所预测的,不同类型的专业计算机代理模型可能会出现来处理不同的任务。 一些可能专注于简单任务的速度,而其他人则擅长复杂推理。模型也可能因企业与消费者使用案例而有所不同。但据Shumer所说,总体目标是开发使人们可以说,“这是我讨厌做的事情。现在,我不必再做了。我们想让它变得如此容易,以至于几乎不会使用计算机的人也可以做到。”Bickett相信,框架的开源性质将进一步加速进展,使全球开发者能够尝试新的应用。Shumer也同意,这个领域有“很多玩家的空间……各种模型提供者。各种应用。并且在这个行业中有很多空间来构建非常非常大的企业。” 尽管Bickett和Shumer看到了巨大的潜力,但要实现真正智能计算机代理的愿景,将需要巨大的资源和持续的创新。为此,AI研究公司Imbue(以前称为Generally Intelligent)最近与Dell建立了一项价值1.5亿美元的合作伙伴关系,以建立一个强大的AI训练平台。大约10000个Nvidia H100 GPU的大型集群将使Imbue能够开发专门针对推理能力优化的新基础模型,这是他们工作的关键重点。正如Imbue联合创始人兼首席执行官Kanjun Qiu所指出的,“推理是代理工作得非常好的核心障碍。”Imbue认为,强大的推理对于开发真正有效的AI代理至关重要,因为它允许机器处理不确定性,适应方法,收集新信息,做出复杂决策,并处理现实世界的复杂性——这些能力对于在狭窄任务之外自主运作至关重要。 该公司采用“全栈”方法,包括优化的基础模型训练、实验性代理和界面原型制作、健壮的工具构建和理论AI研究——旨在推进深度学习的实用和基本理解,以实现具有人类级推理能力和最终人工普遍智能的工程AI。 虽然自主运行计算机框架只是第一步,但Bickett和Shumer认为它将开启一个新时代,届时复杂的AI代理将完全取代人类的计算机界面。深夜可能会继续孕育出颠覆性的想法,但要实现电脑仅通过普通语言就能为任何人、任何地方服务的完整愿景,还需要专注的工作。 去看看 https://github.com/OthersideAI/self-operating-computer
Meta Audiobox:利用语音和自然语言提示生成音频
Meta推出了名为Audiobox的全新基础音频生成研究模型。这款Audiobox能够通过语音输入和自然语言文本提示的结合,生成各种声音和音效,轻松为多种用途创造定制音频。作为我们对负责任研究行为承诺的一部分,我们即将邀请研究人员和学术机构申请专项资金,用于开展与Audiobox相关的安全性和责任研究。 首个跨任务通用的语音生成AI模型,具有最先进的性能 借助基础多模态模型,让世界通过语音翻译更加紧密联系 开放源码AudioCraft:简单且对所有人开放的音频生成AI 今年早些时候,Meta推出了Voicebox,一种最先进的AI模型,能够执行如编辑、采样、风格化等语音生成任务。它在生成AI方面取得了突破,可以通用于未经特定训练的语音生成任务,并以最先进的性能执行这些任务。 现在,作为Voicebox的继任者,Audiobox通过统一语音、音效(如狗叫、汽车喇叭、雷声等短暂、离散的声音)和声景的生成和编辑能力,进一步推进了音频生成AI。Audiobox还支持多种输入方式,以最大限度地控制每个用例。 最值得注意的是,Audiobox允许人们使用自然语言提示来描述他们想要生成的声音或语音类型。例如,如果有人想要生成声景,他们可以给模型一个文本提示,比如“奔流的河流和鸟儿的啼鸣”。 描述并生成声音:用户可以提供所需声音的简短描述,并要求模型生成它。 类似地,要生成一种声音,用户可能会输入,“一个年轻女性以高音调和快速节奏说话”。 描述并生成语音:用户可以提供所需声音的简短描述,以及要讲述的文字,并要求模型生成语音。 该模型还允许用户将音频语音输入与文本风格提示结合起来,以合成任何环境(例如,“在大教堂里”)或任何情感(例如,“悲伤和缓慢地说话”)中的该声音的语音。据我们所知,Audiobox是第一个允许自由风格声音重塑的双输入(语音提示和文本描述提示)模型。 声音重塑:Audiobox可以重塑声音,使其听起来好像在不同的环境中——例如,在这个例子中的一个大教堂。 Audiobox在语音和音效生成的可控性上展示了最先进的水平。我们自己的测试显示,它在质量和相关性(忠实于文本描述)方面显著优于之前的最佳模型(AudioLDM2、VoiceLDM和TANGO)。在各种语音风格上,Audiobox在风格相似性方面超过了Voicebox 30%以上。 长期来看,从构建只能生成一种类型音频(如语音或声音)的专用生成模型,转向构建可以生成任何音频的通用生成模型,将至关重要。有了这种模型,我们可以执行任何需要跨模态理解的生成音频任务。这将使开发者更容易地构建向更动态和广泛的用例。 Audiobox 是走向民主化音频生成的重要一步。我们设想一个每个人都可以更轻松、更有效地创建定制音频以满足其用例的未来。我们希望在文本和图像生成领域点燃创造力的进步,也能在音频上发生,无论是专业人士还是业余爱好者。 内容创作、讲述、声音编辑、游戏开发,甚至 AI 聊天机器人,都可以从音频生成模型的能力中受益
亚马逊首席技术官2024年科技预测
科技发展速度飞快。 先进的云技术、机器学习和生成人工智能现在触手可及。它们几乎影响着我们生活的每一个方面,从撰写电子邮件到软件开发,再到早期疾病的检测和诊断。未来几年,各个领域的创新将致力于让科技普及化,使用户能够跟上日常生活的加速步伐——从生成AI开始,亚马逊首席技术官兼副总裁Werner Vogels周四表示。《国家报》(The National)关注了沃格尔斯先生在周四亚马逊Web服务的re:Invent活动上做出的一些2024年的主要科技预测。 文化敏感的生成性AI大型语言模型将基于文化多样性数据进行训练,以确保更好地理解人类经验并解决复杂的社会挑战。这将保证模型能够在广泛的主题上提供更加健壮和技术上准确的回应。其影响将是深远的,将跨越地理区域、社区和后代。 “文化影响着一切——我们讲述的故事、我们吃的食物、我们的着装方式、我们的价值观、我们的礼仪、我们的偏见、我们解决问题和做决定的方式,”Vogels先生说。“这种文化流利度承诺将使生成AI对全球用户更加易用。” FemTech迎来期待已久的飞跃随着FemTech投资的激增,2024年女性健康护理将达到一个转折点,大量数据将使诊断和患者结果得到改善。“我们一直与女性领导的初创公司密切合作,亲眼目睹了FemTech的增长。仅去年一年,资金就增加了197%,”Vogels先生说。 随着获得资本的增加,像机器学习、AI和专为女性设计的连接设备等技术预计明年将激增。美国女性,占人口的50%,在该国占消费者医疗决策的80%,每年在护理上的支出超过5000亿美元,AWS说。 AI助手革新开发者的效率AI助手将从基本代码生成器进化为教育者和协作者,在整个软件开发生命周期中提供支持。这些助手可以在个人、团队或公司级别进行定制,它们将能够解释复杂分布式系统的复杂性。 “它们将用简单的语言解释复杂系统,建议有针对性的改进,并承担重复任务,让开发者专注于他们工作中最有影响的部分,”Vogels预测。 因此,在未来几年,工程团队将变得更加高效,开发更高质量的系统,并缩短软件发布周期,“因为AI助手从新奇变为整个软件行业的必需品”,他说。 教育与快速技术创新同步Vogels预测,以行业为导向的技能培训项目将在2024年出现,这种转变将使人们和企业受益。“随着越来越多的行业要求员工专业化,学校教授的内容与雇主需求之间的差距正在扩大,”他说。上周,亚马逊宣布了一个名为“AI Ready”的倡议,旨在到2025年为全球200万人提供免费的AI技能培训。 但Vogels先生说,这并不意味着传统学位将消失。“这不是非此即彼的情况……这是关于选择的,”他说。“在科技领域仍有一些领域,这种学术学习是至关重要的。但将有许多行业,其中技术的影响超过了传统教育系统。”
Meta推出了一套AI语言翻译模型,这些模型不仅能保留说话的表达方式,还能提升流式翻译的效果
Meta最近发布了一批新的语言翻译模型。这些模型在翻译我们的话时,可以保持我们的说话方式不变。而且,你不必等到说完话才能得到翻译,语音输出几乎能实时跟上你的说话。 Meta推出了他们的“无缝”系列语言翻译模型。 这里有四个模型: SeamlessM4T v2 – Meta于八月发布的基础模型。 SeamlessExpressive – 一个用于保留语音到语音翻译中表达的模型。 SeamlessStreaming – 一个流式翻译模型,提供最先进的结果,延迟大约两秒。 Seamless – 将SeamlessExpressive、SeamlessStreaming和SeamlessM4T v2集成到一个模型中。 SeamlessExpressive目前能在英语、西班牙语、德语、法语、意大利语和中文之间的语音到语音翻译中保持语速、节奏停顿、情感和风格。SeamlessStreaming能在说话人仍在讲话时进行翻译。你可以在HuggingFace上试用这些模型,这些模型对非商业用途是开源的。 想象一下,在Instagram上使用无缝模型进行视频通话。你可以和世界上任何人聊天,英语不再是交流的障碍。另一个值得注意的点是,你可以构建算法来增强基础模型。例如,Seamless Streaming有一个算法,用于决定何时继续倾听,何时开始翻译,以处理不同语言中的不同句子结构。 这里去看更多 https://ai.meta.com/blog/seamless-communication/
Sam Altman 回归CEO专访确认Q*的存在
OpenAI董事局开除总裁萨姆后一天又让他回来,起先他感到忿忿不平,受伤且盛怒。“我花了几分钟平复自己,摆脱自负和情绪,然后意识到‘当然我想回去’,“他在周三的电话采访中向我透露。“显然,我真的很爱这家公司,在过去的四年半里全职为它贡献了生命力量,其实时间比这更久,大部分时间都在OpenAI。我们在实现我十分关心的使命方面进展顺利 ── 实现安全有益的人工通用智能。” 经过为期5天的董事会政变后,萨姆周三正式继续担任OpenAI CEO。公司最大投资者微软计划接受无表决权董事席位。 在我们的采访中,萨姆一再拒绝回答所有人心中的主要问题:他最初被开除的确切原因。OpenAI新董事会主席Bret Taylor将展开独立调查。“我非常欢迎”, 萨姆对我说。 以下是我与OpenAI CEO萨姆和CTO米拉的完整采访,为清晰起见稍加编辑: 萨姆,我想先讨论大家心中最大的疑问,那就是我们仍不知道你最初被开除的确切原因。你认为你被开除的原因是什么? 董事会将展开独立评议。我非常欢迎。现在我没有更多评论,不过我期待了解更多。 董事会声称对你失去信任,你怎么看? 这问题更适合让他们来回答。 你在X平台上说,你和董事会成员之间明显存在“误解”。这些误解是什么? 我还不准备讨论这个。我认为让评议过程继续非常重要。关于任何面向未来的事我都很乐意谈,可能过一段时间我会很乐意讨论这里发生的事,但现在不行。 你能告诉我你现在为什么谈不了吗? 我只是想让过程继续,不要干扰。 你在致员工的信中提到了伊利亚·萨斯克沃。你能透露下为什么他改变主意站到其他人一边了吗? 米拉:我们不知道。你必须问伊利亚。 萨姆,事后看来,你决定回归的主要原因是什么? 周六早上,一些董事会成员打电话给我,问我是否愿意讨论。我的第一反应是反抗。我当时心情很糟,觉得受到伤害且很生气。 然后,我立即意识到我其实真的很爱这家公司,在过去四年半里全职为它奉献生命力量,时间实际上更长。我们正在实现我极为在乎的使命,实现安全有益的通用AI。不仅是这个使命,还有这里的员工,所有给我们极大支持的合作伙伴,以及米拉和领导层,这里所有做出不可思议贡献的人。我花了几分钟平复自己,摆脱自负和情绪,然后意识到“当然我想回去”。 所以,董事会请你回来了? 是的。 你最初犹豫了? 不久。在发生那些事后,我有很多感受。 很明显员工都站在你一边。这有多大影响? 的确,我们因此变得团结一致、有更强使命感和决心。我本以为我们已经很有信念和决心,现在我认为比以前强很多很多。所以,这一切的积极意义在于此。 在整个过程中,我们没有流失任何员工或客户。不但产品即使面临巨大增长仍在正常运转,还推出了新功能。研究工作继续进展。 你想重返董事会吗? 这听起来像公关话术:这现在不是我的重点。我有大量非常困难、重要且紧迫的工作。我想好好完成自己的工作,而不是是不是在董事会。这不是我现在想的事。 “改进治理结构” 意味着什么?非营利控股公司结构会改变吗? 这问题更适合董事会成员来回答,而且现在也不行。诚实的回答是他们需要时间,我们会全力支持他们深入思考。显然,我们的治理结构出现问题。解决问题的最佳方式需要时间。我完全理解为什么人们现在就想要答案。但我也认为现在就期待答案不合理。 你认为为什么不合理? 我觉得人们看到许多含糊之处关于发生的事。貌似只是分歧,没有渎职或其他类似的事。 设计真正出色的治理结构需要时间,特别是对如此重大影响的技术。这绝不是一周就能回答的问题。它需要人们投入时间思考、讨论、听取外界观点,进行压力测试。这就需要一段时间。 OpenAI是否会由于刚发生的事而改变安全工作方法? 与安全无关。 关于你们最近取得的Q*模型突破的报道,情况如何? 对那起不幸泄密没有特别评论。不过,我们两周前、今天和一年多前一直在说的,就是预期这项技术的进展将继续迅速,而且我们也会继续努力弄清楚如何使其安全有益。这是我们每天起床的原因,未来也一样。我认为我们在这个问题上一直特别一致。 不评论任何特定事情或项目,我们相信进展源自研究。当然你可能会遇到障碍,但是我们预计进展会继续显著。我们希望就此与世界进行互动,搞清楚如何让事情尽可能向好的方向发展。 最后一个问题:我相信你仍在思考整个事件。我知道这还很新鲜。你从这个风波中获得的教训是什么? 我还没有准备好的简明扼要的回答。显然,有很多值得学习的地方,但是我还在努力理清它们。当然,这会有很多可以谈的,但是目前我只有漫长而支离破碎的答案。 好的,改天我们再聊吧。 结束通话后,萨姆几分钟后打来电话。 公司确实可以在没有我的情况下正常运转,这很好。别误会,我很高兴回来。但是我回来时没有任何压力,比如“哦,我必须做这个,公司需要我”,之类的。我自私地感到高兴,因为我选拔了出色的领导者,或者我很好地指导了他们。感觉公司会没事的,团队已准备好,并取得进步。这感觉很好。
Perplexity 推出全新大型在线语言模型
Perplexity 的这些新模型能够通过互联网访问及时信息,提供实用且基于事实的回答——这是离线模型难以做到的。 https://docs.perplexity.ai/docs 这意味着什么? 这些模型是在现有的开源模型,比如 Mistral-7B 和 Llama-70B 的基础上构建的。然后,这些模型通过将当前的网络信息进行层叠调整(微调),以更好地回答需要最新数据的问题,超越了离线模型。这些模型的目标是提供有用、无幻觉的回答。 Perplexity 对这些模型进行了新鲜度、准确性和实用性的评估,认为它们非常适合真实世界的使用场景,比如回答消费者问题,其中最新信息至关重要。作为发布的一部分,Perplexity 通过其公共 API 和 Perplexity Labs 游乐场向大众开放了这些模型的访问。 像 ChatGPT 这样的消费者产品正在将搜索功能加入产品中。搜索结果可以减少幻觉,而且人们关心实时信息。但在大多数模型中构建搜索功能是件繁琐的事情。PPLX 的新在线模型 API 为你内置了他们的 SEO 专业知识,你无需额外的搜索 API。」
Amazon Web Services (AWS) 宣布推出Amazon Q(预览版)
Amazon Q的推出是一项重大创新,标志着人工智能在商业场景中应用的一个重要发展。下面是这一新闻的关键点: Amazon Q的推出对于希望利用人工智能优化业务流程和提升客户体验的企业而言,是一个值得关注的重要里程碑。