在一场技术实验中,研究人员在 Google Colab 上利用开源工具,演示了如何在不重新训练模型的前提下,为大型语言模型(LLM)添加“记忆”功能。通过集成 FAISS 向量检索、LangChain 工作流和 Sentence Transformers 嵌入模型,该系统实现了动态知识注入、模拟遗忘、处理记忆冲突以及时间偏好排序等行为。 🎯 实验目标 🛠️ 技术配置:LangChain + FAISS + Sentence Transformers 系统构建过程如下: pythonCopyEditfrom langchain_community.embeddings import HuggingFaceEmbeddings from langchain_community.vectorstores import FAISS from langchain_core.documents import Document import faiss import numpy as np import time # 加载嵌入模型 embedding_model = HuggingFaceEmbeddings(model_name=”sentence-transformers/all-MiniLM-L6-v2″) print(“Embedding model loaded.”) # 创建 FAISS 索引 sample_embedding = embedding_model.embed_query(“test”)…
Category: Uncategorized
Mistral 推出全新开发者平台Agents API
Mistral公司近日推出全新开发者平台——Agents API (https://docs.mistral.ai/agents/agents_introduction/),该平台旨在简化AI代理系统的创建流程,使开发者能够更高效地构建具备执行多种任务能力的智能体(Agent),包括运行Python代码、生成图像,以及进行增强检索生成(RAG)等。此项发布标志着Mistral在大语言模型(LLM)与外部工具集成方面迈出了重要一步,为构建结构化、持久化、多工具协作的AI系统奠定了基础。 Agents API 概览 Agents API依托Mistral自研语言模型,将其与多个内置连接器相结合,实现多功能支持: 应用场景广泛 这一API框架的发布,拓宽了智能体系统在多个行业的应用边界: 基于Model Context Protocol(MCP) Agents API的构建基于Model Context Protocol(模型上下文协议),这是一种开放标准,允许AI代理访问外部数据源、API及动态资源。通过这一协议,系统具备模块化连接现实世界数据与服务的能力,极大提升了AI决策的上下文敏感性与准确性。 总结 Mistral的Agents API为AI代理开发提供了结构清晰、功能丰富的基础设施。其核心优势在于:无需复杂定制,即可在一个统一框架下实现语言模型与代码执行、图像生成、实时搜索、文档检索及记忆功能的深度整合。该平台有望在多个行业中推动智能应用的标准化部署,尤其适用于需要持续上下文、多任务协作的复杂场景。未来,随着开放协议与开发生态的完善,Agents API有望成为智能体系统构建的重要技术基座。
大型语言模型(LLMs)提出了一种名为“柔性思维(Soft Thinking)”的新方法,用连续概念嵌入(continuous concept embeddings)替代传统离散词元(discrete tokens),开启了更具人类思维特征的推理模式
研究人员近期提出了一项新方法,名为“Soft Thinking(柔性思维)”,旨在打破大型语言模型(LLM)基于离散语言符号进行推理的限制,首次尝试将人类类比式、抽象化的思维模式引入语言模型推理机制中。这一方法由加州大学圣塔芭芭拉分校、加州大学圣克鲁兹分校、加州大学洛杉矶分校、普渡大学、LMSYS组织及微软的研究团队联合提出。 人类推理往往并不依赖于词语,而是在尚未形成具体语言表述前就能并行处理多个抽象概念。然而当前的语言模型仍局限于“逐词输出”的模式,即模型每次只能在一个预定义词汇表中选择一个词元(token)。这种标准链式思维(Chain-of-Thought, CoT)方法迫使模型每一步都必须做出明确决策,导致在面对模糊性、复杂性问题时难以灵活应对。 Soft Thinking 提出了一种新的推理方式,允许模型在“连续概念空间”(continuous concept space)中进行推理,即通过“概念词元”(concept tokens)来表达思维路径。这些概念词元是对整个词汇嵌入空间的概率加权组合,而非某个具体词元的单点选择。通过这种方式,模型可以并行探索多个推理方向,更接近人类的模糊性认知过程。 值得注意的是,这一方法不需要对现有模型进行再训练或结构性修改,仅通过操作模型在推理过程中的中间表示(embedding)即可实现。为提高效率,Soft Thinking 引入了一种称为“Cold Stop”的机制,当模型对当前推理路径的置信度足够高时,自动终止推理过程,从而减少不必要的计算。 在理论层面,该方法被证明可通过线性近似方式,对所有可能推理路径进行边缘化处理,即同时评估所有路径的加权结果。实验证明,这种方式在保持计算可控的同时,显著提升了推理表现。 具体评估方面,研究团队使用三种不同规模和架构的开源LLM,在八项数学与编程任务基准上对Soft Thinking进行了测试。结果显示,该方法较标准CoT和贪婪型CoT推理方法在准确率(Pass@1)提升最多2.48%,而所需的生成词元数量则减少高达22.4%。这不仅表明模型推理更准确,也更加高效。 此外,由于该方法在不更改模型参数的情况下实现了性能提升,Soft Thinking 被认为具有良好的通用性与工程落地潜力,可广泛应用于现有的大模型推理流程中。其开源代码已对外发布,便于开发者和研究人员进一步探索和优化。 总结来看,Soft Thinking是一种无需训练的推理机制创新,它用概念词元替代传统离散词元推理,使大型语言模型能在连续空间中进行并行、多路径的推理。这一方法既提升了推理准确性,也显著提高了效率,且不牺牲模型可解释性。未来研究可进一步探索该方法在分布外输入、极端不确定性场景中的稳健性,并尝试通过训练优化其表现。
代码审查流程正面临着新的AI思考与重塑
据业内最新讨论指出,代码审查流程正面临着新的思考与重塑。过去对代码审查采取“一刀切”的做法正在被质疑:是否所有变更都需要异步审查?是否所有审查都应阻塞交付流程?若代码审查的目标仅为提高质量与促进知识共享,是否每一次变更都必须满足这两个目的,亦或只是其一? 在实际开发过程中,团队常常产出大量微小而不起眼的变更,这些变更是否真的需要阻塞性审查值得商榷。与之相对,对于规模庞大、结构复杂的拉取请求(PR),异步且背景信息有限的审查方式,是否能够捕捉其深层次的细节与意图,也令人质疑。 正因如此,在过去一年中,有团队提出了一个更具弹性且实用的“自动化 / 推迟 / 配对”(Automate / Defer / Pair)审查框架: 该框架的核心理念不是消除人工监督,而是将人力用于更有价值的审查环节,以减少瓶颈,同时提升代码质量与团队学习效果。 🪄 AI 在此框架中的角色转变 目前“代码生成”仍然存在争议,但“AI代码审查”正在快速推广,其原因在于后者无需团队对工作方式进行根本性调整,且能够立竿见影地带来帮助。 根据经验,AI审查在以下几方面展现出显著优势: 1) 🗑️ 减少机械性工作 AI极大地拓展了自动化能力,特别是在处理那些人类审查者不愿检查的事项时: 这些功能共同作用,显著减轻了人类审查的负担。 2) ✨ 提升审查乐趣 从繁重的细节工作中解放出来后,开发者可以专注于那些更富人性与判断力的问题: 3) 📉 降低风险 借助AI进行第一轮深度审查,可显著提升“先合并、后审查”的信心,尤其适用于中小型变更。这直接带来两个结果: AI审查可进一步推动质量保障(QA)流程“左移”,直接在IDE中实现代码质量预防。 4) 🎓 知识民主化 AI可以充当“盒中专家”,为每一次审查引入专业领域的知识:安全、性能、可访问性等。即便团队中没有相应领域的专家,AI也可识别常见问题。这并不是在削弱专家的作用,而是在减少他们处理重复性工作的时间,使其专注于高层次的战略设计与平台建设。 🔮 对未来的展望 讨论还延伸到AI代码实践的未来图景,以下观点尤为引人注目: 人类工程师的判断力将转向战略层面。 📌 总结要点
Telegram平台分发其聊天机器人Grok
据报道,Telegram与埃隆·马斯克旗下的人工智能公司xAI达成合作协议,后者将在Telegram平台分发其聊天机器人Grok,并在Telegram可用的一系列应用中整合该功能,为期一年。 Telegram首席执行官帕维尔·杜罗夫(Pavel Durov)于周二表示,作为此次交易的一部分,xAI将以现金和股权形式向Telegram支付3亿美元。 杜罗夫还透露,Telegram将从通过该应用购买xAI订阅服务中获得50%的收入分成。 今年早些时候,xAI已将Grok聊天机器人提供给Telegram的高级用户使用。现在看来,Grok可能将向所有用户开放。 杜罗夫在社交平台X上发布的视频显示,Grok可以被固定在聊天界面顶部,用户还可通过搜索栏向其提问。值得注意的是,Meta公司此前也在Instagram和WhatsApp的搜索栏中整合了其Meta AI功能。 视频画面还展示了Grok的多项功能,包括撰写建议、对聊天记录、链接和文档进行摘要、创建贴纸等。此外,Grok还将为企业提供答疑服务,并协助平台内容审核工作。
台积电押注“非主流”光学技术:MicroLED互连或将为AI数据中心带来能效革命
在AI数据中心争夺速度、带宽与能效的时代,台积电(TSMC)正在下注一项不走寻常路的光学互连技术。2025年5月,台积电宣布将与加州Sunnyvale初创公司Avicena合作,量产基于MicroLED的光学互连芯片,这项技术可能成为构建节能型AI超算集群的关键。 背景:AI时代的数据瓶颈 随着大语言模型和其他AI系统对GPU集群的需求暴涨,传统铜线互连方式逐渐显现出带宽不足、延迟过高和能耗严重的问题。数据中心内部(尤其是在GPU与内存之间)的通信已成为瓶颈。为了突破这一限制,业界正试图将“光互连”推进到主板乃至芯片级。 台积电副总裁Lucas Tsai表示:“目前业界正加紧将光学连接推进到离硅芯片更近的位置。” Avicena的另类解决方案:MicroLED + 摄像头式接收器 与目前主流的激光-调制器光互连方案不同,Avicena推出了一种名为LightBundle的平台,使用数百个蓝色MicroLEDs与成像式光纤和光电接收阵列实现数据传输。该方案避免了激光器带来的高复杂性、高成本与可靠性问题。 Avicena CEO Bardia Pezeshki 形容其系统为: “一个像迷你显示器一样的发射器,对应一个像摄像头一样的接收器。” 每一条10 Gb/s的物理数据通道都通过专用的光纤链接。用300个像素就能实现10米距离内总共3 Tb/s的数据吞吐,并保持能耗低于1 pJ/bit,远优于硅光方案目前约5 pJ/bit的水平。 跳过激光器:更简单、更成熟的产业路径 目前常见的硅光互连方案依赖于激光器、多波长调制器和共封装光学(CPO)模块,但这些组件仍处于研发或初期商用阶段,成本高、产能低。相比之下,Avicena采用的是LED、显示屏与摄像头技术——都是已经在消费电子中高度成熟的产业。 Pezeshki表示: “我们不需要发明新的技术模块,仅对现有技术进行小幅修改即可实现高性能互连。” 这也是台积电决定为其生产光电探测阵列的重要原因之一。LED的低功耗、成熟工艺与高冗余性,使其非常适合数据中心10米以内的内部高速互连场景。 为何这项技术令人兴奋? 面向AI计算的未来架构基础设施? 台积电此次与Avicena的合作,表明AI数据中心基础设施正处于重大技术转型的前夜。随着生成式AI模型日益庞大,如何在GPU与内存、GPU与GPU之间快速、高效、低能耗地传输数据,将成为决定系统上限的关键。 虽然Avicena的LightBundle仍处于扩展阶段,但其“跳过激光、直奔LED”这一路径,有望为数据中心互连带来真正的范式转变。 在一个注重“性能每瓦”的AI世界里,也许这就是后铜线、后激光的未来起点。
“世界模型”(world models)的AI系统正在朝通用人工智能(AGI)迈出关键一步
谷歌DeepMind首席执行官Demis Hassabis近日表示,被称为“世界模型”(world models)的AI系统正在朝通用人工智能(AGI)迈出关键一步,并取得了“令人惊讶的进展”。他指出,这些模型不再只是模仿语言或生成图像,而是开始理解物理世界的真实结构,具备推理和预测现实动态的能力。 “世界模型”接近理解现实世界的本质 Hassabis在评论谷歌最新的视频模型Veo 3时称,其在模拟现实物理现象方面的表现“令人震惊”,能够准确捕捉物体运动的直觉物理规律,说明其背后正在激活对现实更深层的结构性理解。他表示:“这不只是生成图像,它触及了某种更真实的东西。” 在他看来,这类AI系统类似人脑,不只是构建现实的表征,更是模拟现实本身的底层规则与复杂性。这种能力让研究人员有机会以计算方式理解现实的本质,这也是Hassabis一贯追求的“终极目标”:探索现实世界的根本结构。 从模拟游戏到通用智能:世界模型是DeepMind的核心路线 Hassabis指出,构建世界模型一直是DeepMind实现AGI的核心策略之一,早在他十几岁设计模拟游戏《Theme Park》时便萌生了这一理念。他强调:“对我们来说,构建世界模型从一开始就是通往AGI的计划。” 这一思路也贯穿了DeepMind的多个实验性项目。例如,Genie项目能够将静态图像转换为可交互的3D游戏环境,赋予图像世界物理属性和动态交互性,正是朝“理解并参与现实世界”的方向迈进。 世界模型背后的哲学:从模仿到体验 在DeepMind近期的一篇论文中,两位重量级AI研究员——Richard Sutton与David Silver也对世界模型的重要性进行了强调。他们认为,AI发展应该摆脱对人类标签和数据的依赖,转向通过环境交互学习的系统,即让AI像人类或动物一样通过试错与反馈获得知识。 他们主张AI应具备内在世界模型:能够预测未来、做出决策,并具备感知—行动—反馈的循环机制。这不仅仅限于语言模型,而是涉及视觉、触觉、运动等多模态体验。 强化学习将在这一过程中扮演关键角色。通过在真实或逼真的环境中进行试验,AI将不只是识别数据,而是逐步建立起与现实世界动态交互的能力。 一个全新AI时代的开端? 在Hassabis、Sutton与Silver看来,这一“从模仿转向经验”的范式变革,是AI迈向AGI的真正起点。与单纯的语言理解或图像生成不同,世界模型提供了AI与现实交互、理解、预测甚至主动探索的可能性。 这也意味着,未来的AI不再只是回答问题或生成文本,而是能真正“看懂”“预测”甚至“介入”现实世界。正如Hassabis所说:“我们不仅在构建AI工具,而是在尝试还原宇宙的运行法则。” 世界模型的突破,让人们对AGI的实现路径有了更加清晰的轮廓。通过模拟现实、体验现实并在其中学习,AI或许正在悄然接近通向人类级智能的门槛。
亚马逊的软件工程师称:在AI推动下,写代码开始像仓库工人的工作
在人工智能迅速改变软件开发流程的背景下,亚马逊部分程序员表示,他们的工作节奏正变得越来越快、越来越例行公事,甚至与仓库流水线上的工作类似。他们指出,虽然AI并未直接剥夺他们的职位,但正在悄然改变他们工作的性质——使其更高压、更少创意,变得更像一场速度竞赛。 与此同时,也有开发者表示欢迎这一变化,认为AI在处理琐碎任务上带来了效率提升,使人能够专注于更具挑战性的工作内容。 从“写代码”到“管理AI生成的代码” 亚马逊正在大力投资生成式AI。在CEO安迪·贾西(Andy Jassy)最近的致股东信中,他强调AI在“提升生产效率和降低成本”方面带来了巨大回报,并明确指出编码是一个将因AI“改变规范”的领域。 多名亚马逊工程师透露,过去一年中,他们被鼓励或被动要求在日常工作中使用AI。虽然表面上AI工具的使用是可选的,但如果开发者希望达成团队指标、获得良好的绩效评价,实际上已别无选择。一名工程师称,他所在的团队人数缩减了一半,但产出目标未变,依赖AI才得以维持进度。 这些AI工具包括类似Copilot的代码补全系统,以及可生成大型程序片段的新型工具。一些程序员形容它们“可怕地强大”,但也指出这需要花费大量时间去审核和验证。正如一位程序员所说:“写代码比读代码有趣得多”,而AI主导的流程中,“读代码”正在变成开发工作的主旋律。 “工作速度提升,但思考时间变少” 在AI的推动下,开发节奏明显加快。一项由微软及学术机构合作完成的研究表明,使用AI工具能将编程输出提升超过25%。在亚马逊,开发者们表示,一项功能过去需要几周时间开发,现在则常常必须几天内完成,这直接压缩了与团队协作、代码复审及技术探索的空间。 哈佛大学劳工经济学家劳伦斯·卡茨(Lawrence Katz)认为,这种现象类似于工业时代“工匠手艺转向工厂流水线”的转变:“这是一种‘知识型工人加速化’(knowledge worker speed-up)。”他指出,开发者原本拥有一定的“冗余时间”来应对复杂项目,现在则被AI技术消解,开发流程趋于透明和标准化。 从蓝领到白领:同样的“技术压榨”逻辑 亚马逊工程师将这种变化与公司早年对仓库工人的自动化管理做类比:过去工人需在仓库中步行寻找货品,如今机器人将货架送到人面前,虽然省力却变得更重复和机械。程序员担心,AI正以相似方式“工业化”他们的工作。 与此同时,公司管理层则称AI是增强工具而非替代品,可以减轻重复性任务,如旧系统的升级维护。据CEO贾西表示,AI已为亚马逊节省了相当于4,500名开发者一年的工作量。 年轻开发者可能受影响最大 尽管高阶开发者能将AI当作“助手”提高效率,但对初级工程师而言,AI自动化可能削弱他们掌握核心技能的机会。一位工程师指出,AI接管了许多能帮助新人理解系统架构与代码逻辑的过程,如自动化测试与文档生成,可能影响他们的晋升发展。 从职业焦虑到组织化可能性 在面对AI带来的节奏压力与职业不确定性之际,许多亚马逊工程师加入了名为“Amazon Employees for Climate Justice”的内部组织。该组织除环保议题外,也成为员工讨论AI使用焦虑、返岗政策等问题的聚点。 该组织代表Eliza Pan表示,工程师们担心的不仅是技术本身,而是“这将如何改变他们的职业生涯,甚至是工作的本质”。 尽管目前亚马逊程序员尚未出现正式的组织化趋势,但历史经验表明,劳动强度和工作方式的“加速化”往往是工人集体行动的导火索——如1936年美国汽车工人罢工,就是为了抵制“速度压榨”(speed-up)。 软件开发的“流水线化”,是进步还是退步? 程序员与AI的关系正处于不断变化的临界点。一方面,AI确实显著提升了生产效率、降低了应用开发门槛,使得原本需要庞大团队的应用程序如今可由少数原型开发者快速实现;另一方面,程序员正在从创作者变成“代码监管员”,逐渐丧失对作品的主控权。 哈珀·里德(Harper Reed),前奥巴马竞选团队技术主管指出:“过去在工厂里,工人还要测量每个角度是否准确。现在有机器来做这些,我们不需要知道每一处细节。”对他来说,技术进步意味着“工艺知识”的边缘化。 而对程序员群体来说,问题或许不是AI是否取代了他们,而是AI是否让他们成为自己工作的旁观者。 AI让软件开发变得更快、更便宜、更普及;但也让开发者的角色更加边缘、可替代。这个新现实,才刚刚开始。
全新的CRISPR技术——CRISPR-TO
斯坦福大学的研究团队日前开发出一种全新的CRISPR技术——CRISPR-TO,能够将RNA精确输送至神经元中的特定受损区域,进而启动修复与再生机制。这项突破性的研究被称为“空间RNA医学(spatial RNA medicine)”的起点,有望为如肌萎缩侧索硬化症(ALS)、脊髓损伤及多种神经退行性疾病带来更安全、有效的治疗新方向。 CRISPR-TO:精准的“分子邮差” 与传统通过CRISPR-Cas9编辑DNA不同,研究人员使用的是CRISPR-Cas13系统,其不修改DNA,而是靶向RNA分子。研究团队将Cas13改造成类似邮差的角色,并为其配备“分子邮编”(molecular zip codes),使其能够根据细胞内特定地址信息,将RNA运输至精确的亚细胞位置。 “Cas13原本像剪刀,我们则将其重新设计为递送员,”斯坦福大学生物工程副教授、研究资深作者Stanley Qi指出。“我们现在可以指示它将RNA从一个位置带到另一个特定位置。” 实验成果:受损神经元生长显著提升 研究人员将该技术应用于小鼠脑部神经元体外培养实验中,发现CRISPR-TO能将RNA精准地运输至神经突末端——即神经元用于形成突触并与其他神经元连接的区域。在24小时内,一些RNA分子使神经突的增长提升了多达50%。 该成果揭示了RNA在细胞中空间定位的重要性,尤其在处理长达一米以上的神经元时,RNA运输的准确性决定了修复能否成功。 更安全、更高效的RNA疗法 研究者强调,CRISPR-TO技术无需对细胞基因组进行编辑,而是利用细胞内原有的RNA分子,改变其分布位置,避免了传统基因编辑带来的不可逆风险。 该团队正在扩展这项技术,以在小鼠大脑及人类神经元中测试更多RNA分子的治疗潜力。研究负责人表示,未来还可结合外源RNA药物,通过CRISPR-TO实现精准定位与递送控制,显著提高疗效并减少副作用。 “仅仅让一个RNA分子进入细胞并不够,我们需要它在正确的时间到达正确的位置,”Qi指出。“凭借我们这项可编程的精准技术,理论上可将任意RNA靶向至任意细胞中的特定部位。” 开启“空间RNA医学”新时代 这项由美国国家卫生研究院(NIH)和国家科学基金会等多家机构资助的研究,为“空间RNA医学”建立了基础。未来,研究人员希望这一技术能够应用于治疗脊髓损伤、神经退行性疾病,甚至用于再生医学与精准神经修复。 相关研究已于2025年5月21日发表于《Nature》期刊,由斯坦福大学Chloe Dionisio提供新闻发布。研究显示,在细胞层面对RNA的空间控制能力,将为神经系统疾病的治疗开辟全新方向,极有可能成为未来RNA疗法的核心机制之一。
从2014年至2025年JavaScript生态系统的一段精华年表
JavaScript 在过去30年中经历了从浏览器脚本语言到支撑全栈开发和AI工具的关键技术的巨大演变,其发展历程见证了技术革新、开源文化、社区协作和生态繁荣的共同驱动。以下是从2014年至2025年JavaScript生态系统的一段精华年表,展现了Web发展史上的关键时刻: 2014年12月:io.js 诞生,推动 Node.js 加速演进因Node.js在Joyent维护下更新缓慢,且未能支持现代JavaScript特性,一批核心贡献者发起了io.js分支,意图推动更快速的演进。该项目于2015年中合并回Node.js,并促成Node.js治理结构的重大变革。 2015年:Jamstack 架构提出Netlify CEO Matt Biilmann首次提出“Jamstack”架构(JavaScript、API与Markup),推动前端从SPA转向更高性能的SSR和SSG,标志现代Web开发范式转型的开始。 2015年2月:Node.js 基金会成立为统一社区、合并io.js分支,Node.js基金会在Linux基金会支持下成立,得到了微软、IBM、PayPal等大企业支持,推动Node.js进入长期支持(LTS)周期。 2015年中:GraphQL、Redux、WebAssembly和Atom发布GraphQL改变了API设计方式,Redux为React生态带来可预测状态管理,WebAssembly解锁浏览器中的高性能应用,Atom验证了Electron架构,为后续VS Code奠定基础。 2015年7月:ECMAScript 6(ES2015)发布ES6为JavaScript带来了 import/export 模块、箭头函数、类、fetch API 等关键语法,是JavaScript现代化的里程碑。 2016年:npm生态遭遇“left-pad事件”开发者删除一个11行的left-pad包,导致包括React、Babel在内的数千项目构建失败,暴露出JavaScript依赖生态的脆弱,推动npm政策改革。 2016年4月:VS Code 1.0 发布微软发布基于Electron和TypeScript构建的VS Code,以其轻量、高性能和丰富扩展迅速主导开发者工具市场。 2016年9月:Angular 2 发布,开启企业级SPA新时代 2016年10月:Next.js 1.0 发布,定义SSR的React实践标准 2017年:Temporal 提案初始提交,Prettier 推出格式化工具新范式Temporal解决 Date 的诸多历史遗留问题;Prettier将格式化纳入CI流程,影响力波及Python、Rust等语言。 2017年9月:Cloudflare Workers 推出,推动边缘计算普及基于V8 isolates的轻量模型,Workers让开发者可在全球CDN边缘运行JavaScript,开启serverless at the edge新篇章。 2018年:Puppeteer、TensorFlow.js 发布;Deno 首次公开 2019年3月:OpenJS Foundation成立Node.js基金会与JavaScript基金会合并,统一治理包括Node.js、jQuery、ESLint等关键项目,标志社区走向协同。 2019年11月:Node.js 正式稳定支持 ECMAScript Modules(ESM) 2020年:JavaScript随SpaceX进入太空,Deno…