公关与内容负责人 从偶尔用 AI 到成为 AI 高手,只用了几个月的时间。这一切源于对 AI 使用的心态转变。如今,AI 已经融入了日常工作。 有人说,未来不会是专业人士被 AI 取代,而是不会用 AI 的专业人士被那些善用 AI 的同行取代。这一观点已被研究验证。 哈佛商学院的一项研究对比了两组咨询顾问——一组使用 AI,另一组则没有。结果显而易见:使用 AI 的顾问任务完成量多了 12.2%,完成速度快了 25.1%,而且工作质量高出 40%。 看到这些数据后,其他人的成功经历激励了更多人去探索 AI 的潜力。经过几个月的摸索,学会如何在工作流中融入 AI,明显感受到工作速度和深度的提升。以下是利用 AI 提升工作的具体方法,不是简单的提示,而是彻底改变思维方式的过程。 工具推荐:Claude 和 ChatGPT 市面上的 AI 工具种类繁多,而常用的选择之一是由 Anthropic 开发的 Claude,它能提供深入的回答,并且理解问题非常到位,占日常使用时间的 80%。此外,ChatGPT 也是备选之一。相比生成直接内容,更倾向于利用 AI 进行对话和思维碰撞。 如果需要 AI 图像生成或其他用途,也有很多专业工具可以选择。关键在于根据实际需求,找到最契合的工具。 利用 AI 提升思维深度 职业生涯中最宝贵的时刻,往往是与那些能挑战思维方式的人一起解决问题。例如几年前,为 Buffer 博客制定内容策略时,有位同事提出要“关注结果而非产出”。这一建议彻底改变了计划方向,从单纯的内容数量转向用数据驱动结果优化。 类似的思维碰撞不必局限于人与人之间。AI 同样可以扮演这样的角色:在遇到挑战时,将问题和思考过程告诉 AI,让它提供反馈并推动新思路。 实践方法:…
AI模型新发现:精度的重要性超出预期
最近,哈佛大学、斯坦福大学等机构的研究人员联合发布了一项研究,指出模型训练中的精度(即用多少比特表示数字)对模型性能的影响比人们之前认为的更为重要。这项研究不仅重新定义了规模化法则的关键因素,还对未来AI模型的训练方式和硬件发展提出了新的见解。 研究显示,过往的规模化法则主要关注参数数量和训练数据量,而忽略了精度的影响。团队通过大量实验证明,精度不仅是影响模型性能的核心变量,还可以显著改变计算资源的效率。 研究团队进行了465次训练实验,模型的精度范围从3到16比特不等,并测试了在训练后对模型进行量化(降低精度)的效果。实验模型的参数数量高达1.7亿,训练数据量达到260亿标记。这些测试让研究人员得以系统性地分析精度对模型训练和性能的深远影响。 实验结果揭示了一个重要现象:“过度训练”的模型对量化更加敏感。当模型训练标记数量与参数数量的比值远高于被认为“最优”的20(即Chinchilla-optimal值),其在训练后被量化时性能下降更为明显。此外,随着训练数据的增加,量化后的性能劣化也随之加剧。研究人员指出,额外的数据训练在某些情况下反而会放大量化误差,对模型性能产生负面影响。 基于实验结果,研究团队提出了新的规模化法则,将精度纳入模型训练优化的核心要素。研究发现,在优化参数数量、数据量和精度时,使用7到8比特的精度通常是计算资源的最佳选择。传统的16比特精度在许多场景下是资源浪费,而4比特精度尽管节省资源,但需要大幅增加模型规模才能维持性能,得不偿失。 然而,研究还指出,当模型规模固定时,较大的模型(如16比特训练的Llama 3.1 8B)需要更高的精度才能避免性能损失。这也反映出低精度计算方法的局限性在一定程度上依赖于硬件支持,目前的研究尚未验证这种趋势在超大规模模型中的适用性,但初步结果令人信服。 对于这项研究的意义,卡内基梅隆大学和Allen AI的研究员Tim Dettmers高度评价,称其为“近期最重要的研究之一”。他指出,这项工作表明低精度训练方法的效率提升空间正在逐渐耗尽,尤其是对于像Llama 3.1这种拥有4050亿参数的大模型。Dettmers认为,这可能预示着AI行业将从单纯的规模化转向更专注于人类应用和定制化模型的方向,例如通过知识蒸馏或开发行业专用模型来提升效率。 这项研究不仅改变了人们对精度在AI模型训练中角色的理解,也提出了未来模型设计的新方向。随着硬件对低精度计算的支持逐步提升,这些新法则可以帮助开发者在模型大小、数据量和精度之间找到更高效的平衡点。未来,AI行业或许将告别单纯追求“更大更强”的模式,转而关注模型的实际效能与应用价值。
马斯克与OpenAI的往事:从理想主义到“背叛”的纠葛
埃隆·马斯克与OpenAI的关系在这场最新的反垄断诉讼中被再度拉回聚光灯下。尽管针对OpenAI违反反垄断法的指控看起来难以成立,但曝光的邮件却揭示了OpenAI早期内部的矛盾与争执——从马斯克对领导权的执念,到其他创始人对“AI独裁”的担忧,再到微软的“金主”角色初现端倪,这些细节颇具戏剧性。 马斯克的领导权之争:独裁的隐忧 一封特别值得关注的邮件来自OpenAI前首席科学家伊利亚·苏茨克弗(Ilya Sutskever),他详细表达了团队对马斯克领导的顾虑: 苏茨克弗明确表示,OpenAI的目标是防止AGI被任何一个人或组织独占,避免出现“AI独裁”。他警告称,马斯克创建的结构本身就可能让他变成“独裁者”,这与OpenAI的初衷背道而驰。 对奥特曼的质疑:商业化的方向已注定? 苏茨克弗对另一位创始人山姆·奥特曼(Sam Altman)的看法同样不无保留: “我们无法完全信任你的判断,因为我们无法理解你的真正动机。” 这些疑虑也与后来奥特曼被董事会指责“不够坦率”如出一辙。苏茨克弗在早期邮件中就提到,奥特曼对CEO职位的坚持与他的商业动机息息相关。回顾OpenAI如今向企业化发展的轨迹,这种“哲学理想逐渐让位于盈利目标”的方向似乎早已埋下伏笔。 早期未果的商业计划:从Cerebras到微软 回溯到2017年,OpenAI曾考虑收购芯片制造商Cerebras,并可能借助特斯拉的资源进行交易。苏茨克弗写道:“如果我们决定收购Cerebras,我强烈建议通过特斯拉来完成。”尽管最终这笔交易未能成行,但它反映出当时团队对与特斯拉绑定的兴趣。OpenAI联合创始人安德烈·卡帕斯提(Andrej Karpathy)甚至提议:“OpenAI可以依附特斯拉,将其作为‘现金奶牛’,利用其收入支持AI研发。”然而,特斯拉的自动驾驶技术进展远不如预期,也使这一愿景不了了之。 微软与OpenAI的最初接触 2016年,微软向OpenAI提出一项交易:提供6000万美元的Azure计算资源,条件是双方需要互相“推广”对方的品牌。马斯克对此非常抵触,他在邮件中直言这样的合作让他“恶心”,并认为与其接受微软这种“市场宣传绑定”,不如付更多的钱买自由。最终,双方的合作协议规避了这一条款。 隐藏的玩家:Gabe Newell 另一个令人意外的名字是Valve创始人Gabe Newell。根据董事会成员希冯·齐利斯(Shivon Zilis)的邮件,他是奥特曼和格雷格·布洛克曼(Greg Brockman)的“非正式顾问”,也是项目早期的捐助者之一。但他的具体角色仍然是个谜。 总结:从乌托邦到现实冲突 这些邮件记录了OpenAI从一个非营利理想主义组织向如今“商业化巨兽”转型的关键时刻。马斯克对控制权的执念、奥特曼对盈利的倾向,以及创始团队内部的分歧,奠定了后来的一系列争议。 尽管邮件中没有揭示全部真相,但它们勾勒出一个故事:一个致力于拯救人类的组织,在理想与现实之间经历了撕裂和妥协。而马斯克的感觉可以用一个词总结——背叛。
Elon Musk 状告加州:为何对“深度伪造法案”说不?
社交媒体平台X(原Twitter)的老板埃隆·马斯克,正在对加州一项新签署的法律AB-2655(即“捍卫民主,防止深度伪造欺诈法”)发起诉讼。这项法律要求拥有超百万用户的大型在线平台删除或标记与选举相关的AI生成的深度伪造内容,并建立举报虚假选举信息的程序。 马斯克的核心诉求:侵犯宪法权利? 马斯克在长达65页的诉讼文件中指出,这部法案违反了美国宪法第一修正案(言论自由)和第十四修正案(平等保护原则)。他认为该法案会导致对大量宝贵的政治言论和评论的审查。 具体而言,马斯克认为: 此外,这项法案被批评为“言论内容的裁判”,政府能以防止误导选民为名,直接干预政治言论,这在马斯克看来是危险的先例。 法案背景:与“深伪视频”风波有关 AB-2655的出台背景并不复杂。今年7月,马斯克曾助推了一段关于美国副总统卡玛拉·哈里斯的深度伪造视频,引发公众关注。加州州长加文·纽森随即承诺,在数周内签署相关法案,将这种行为归类为违法。 类似法案的命运:法律是否真的站得住脚? 值得注意的是,AB-2655并不是近期唯一因深伪内容而被挑战的法案。就在数周前,联邦法官已否决了另一项相关法律(AB-2839),该法案试图允许个人因选举深伪内容提起损害赔偿诉讼。理由是这同样违反了第一修正案。马斯克对此判决公开表示支持,如今也借此法律基础试图阻止AB-2655的生效。 为何值得关注? 这场诉讼不仅关系到深度伪造内容的监管,更牵涉到技术进步与言论自由的平衡问题: 未来的可能走向 马斯克的诉讼再次将科技巨头与政府在言论自由问题上的冲突推上台面。这不仅是一次法律博弈,更是关于科技与社会规则如何共存的深刻讨论。
初创公司首次退出的经验教训
初创公司首次退出的经验教训 作者:SkyBridge创始人发布时间:2024年11月13日 在2024年四月,SkyBridge的创始人完成了对这家硬件公司的出售。这是一家他创立并经营了四年的公司。这次出售的经历让他学到了很多宝贵的经验,包括在过程中哪些做法是成功的,哪些地方在未来可以改进,以及一些让人意想不到的发现。在这篇文章中,他分享了此次出售经历的细节,希望为其他创业者提供启发和借鉴。 交易详情 哪些做法被证明是成功的 1. 大量投资于业务文档化 在创始人开始他的第一次创业之前,他阅读了约翰·沃里洛的《Built to Sell》一书。这本书鼓励创业者建立无需创始人日常管理也能高效运行的公司。一个高效的公司需要拥有一套清晰定义的流程,以及能够执行这些流程的团队。 创始人一直喜欢复用型流程,因此在组建SkyBridge团队时,他在业务文档化方面投入了大量时间和精力。他没有依赖面对面的培训或视频通话,而是通过在团队的Notion工作区编写操作手册来完成培训。当操作手册中出现问题时,团队会进行修订以减少未来的错误。当新成员加入团队时,他们通过同样的操作手册完成入职流程,而团队则不断完善这些手册。 在出售SkyBridge后,合同要求创始人在过渡期提供最多30天、总计80小时的咨询支持。但实际上,买家只需要创始人提供大约25小时的支持。这是因为SkyBridge团队已经能够独立运行公司的日常工作,并且买家也能够通过完善的文档获取所需信息。创始人在过渡期的主要工作仅仅是将新所有者介绍给团队成员和关键供应商。 2. 制定了清晰的过渡清单 在准备出售公司时,创始人创建了一份清单,列出了所有需要在出售前完成的任务,比如删除过时的操作手册,以及确保所有账户凭据都存储在公司的Bitwarden账户中。 在尽职调查阶段,他将这份清单扩展到包括过渡期间需要完成的事项,并将清单分为四个类别: 这份清单在交割期间显得尤为重要。当时许多账户需要转移给新所有者,并且许多流程也需要根据新所有者的需求进行调整。这份在冷静时期制定的清单,为高强度的交割阶段提供了清晰的方向。 3. 选择了值得信赖的并购中介 创始人在最初对并购中介存在一定的偏见,他以为中介只关注尽快完成交易,而不关心创始人的其他利益。然而,在2023年的Microconf大会上,他结识了Quiet Light Brokerage的顾问Chris Guthrie。Chris给人的印象是非常低调、没有任何压迫感,并且特别关注创始人的利益。他本人也是一位前创始人,因此特别强调找到最合适的交易,而不是追求最快的付款方式。 通过与Quiet Light的合作,创始人发现双方的利益始终保持一致。Quiet Light帮助他找到了一个他自己无法找到的买家,并且在整个过程中推动交易顺利进行。尽管Quiet Light的佣金为交易金额的15%(即8.89万美元),但创始人认为这是值得的,因为中介提供的专业服务帮助他避免了许多潜在的麻烦。 4. 避免了卖方融资 由于创始人当时并不急需现金,因此最初他对买家分期付款的方案持开放态度。然而,在与其他创业者交流后,他了解到卖方融资可能存在重大风险。一位经验丰富的创业者这样告诉他: “如果你自己为交易融资,那么你实际上是给买家打工。” 这位创业者解释道,如果交易涉及融资,卖方只有在企业盈利的情况下才能获得付款,而新买家对此心知肚明。他们可能会将管理责任推给卖方,因为他们知道如果公司失败,卖方也无法收回贷款。此外,作为一个小型贷款人,卖方很难在买家违约时有效追讨欠款。如果买家决定不支付款项,即使买家有能力支付,卖方也很难通过法律手段追回资金。 5. 假设交割后不再获得任何收益 创始人了解到,很多创业者对交割后应收到的款项感到失望。部分原因是买家没有履行合同,还有一些情况是买家通过“创造性记账”避免支付基于绩效的奖金。因此,他选择设计一个交易结构,即使交割后无法获得额外款项,他仍然感到满意。任何交割后的款项都被视为额外的奖励,而不是交易的主要部分。 6. 认识到交割后对公司的影响力是有限的 创始人希望找到一个愿意继续投资产品、团队和客户的新买家。在与其他创始人讨论如何避免找到只想短期获利的买家时,他们建议他不要试图控制交割后的局面,而是专注于筛选合适的买家。 他通过筛选选择了那些愿景与他一致的买家,但同时也认识到,交易完成后,公司将完全由新买家掌控。他的经验表明,这种筛选可以一定程度上增加交易后结果符合预期的可能性。 7. 修改中介协议以确保佣金支付与实际收款挂钩 创始人注意到,中介协议的初稿中规定,中介的佣金是购买价格的一部分,并且必须在交割时支付。但如果交易协议涉及分期付款,卖方可能需要提前支付基于全款的佣金,而实际可能需要数年才能收到全部款项。 因此,他请求中介修改协议,确保佣金支付与实际收到的款项挂钩。中介同意了这一修改,确保了卖方和中介之间的利益一致性。 总结 SkyBridge创始人通过这次出售积累了丰富的经验。他认识到,在出售过程中,细致的准备、清晰的沟通以及对潜在风险的准确评估都至关重要。虽然这一过程充满挑战,但最终结果让他感到满意。他希望通过分享这些经验,为其他创业者提供有价值的借鉴,帮助他们在类似的交易中取得成功。
OpenAI、谷歌与Anthropic:AI发展遇阻,前进之路不再平坦
近年来,OpenAI、谷歌和Anthropic等人工智能领域的领军企业凭借一系列强大的AI产品在行业内掀起了一波浪潮。然而,最新报告显示,这些公司在开发更先进模型方面正面临逐渐递减的回报,其投入的巨额成本与结果之间的差距引发了广泛关注。 OpenAI的Orion模型:未能达到预期 OpenAI在9月完成了代号为“Orion”的新模型的初步训练,原本希望它能显著超越当前技术。然而,据知情人士透露,该模型在许多方面的表现未能达到目标,特别是在未经过训练的编码问题上表现不佳。与GPT-4相较,Orion的进步远未达到GPT-4相对于GPT-3.5的飞跃程度。 目前,OpenAI正通过包括人类反馈在内的后续训练试图提升Orion的表现,但模型尚未达到可以公开发布的水平。这使得Orion的发布时间推迟至明年年初。 谷歌的Gemini与Anthropic的Claude Opus:也未能幸免 谷歌的Gemini系列一直被寄予厚望。然而,根据内部消息,其即将推出的新版本未能满足预期表现,令人失望。同样,Anthropic的Claude 3.5 Opus模型也面临开发难题。尽管其性能较早期版本有所提升,但改进幅度与投入成本并不成正比。Anthropic的发布计划因此一再推迟,其首席执行官达里奥·阿莫迪(Dario Amodei)在最近的播客中坦言,可能会在未来几年内因数据不足或其他障碍而“脱轨”。 挑战:数据、成本与技术瓶颈 这些困境反映了当前AI发展中的三大核心挑战: 从规模扩展到新用途:AI的下一步方向 面对当前困境,这些科技公司正在调整方向,重点转向模型的实际应用场景,而非一味追求更大的模型规模: 这些调整显示,企业已意识到单纯依赖规模化的发展路径不再可靠。正如Amodei所说:“‘规模定律’并非宇宙法则,而是一种经验规律,未来是否能继续适用仍存疑。” 行业反思:AGI目标是否过于遥远? 人工通用智能(AGI)的概念曾被视为人工智能的终极目标,但近年来实现这一愿景的可行性受到质疑。Margaret Mitchell,AI初创公司Hugging Face的首席伦理科学家指出:“AGI的泡沫正在破裂。”她认为,未来AI模型需要探索不同的训练方法,而非仅仅依赖扩大数据和计算能力。 尽管如此,行业领袖依然对AI的潜力保持乐观态度。他们希望通过改善数据质量、提升模型应用性能,逐步克服当前的技术与成本障碍。 结语:AI的未来依然可期,但步伐需更务实 OpenAI、谷歌和Anthropic正在经历AI发展中的“高原期”。这并不意味着AI的前景暗淡,而是标志着该领域需要从盲目追求规模扩展转向更务实的创新路径。随着新应用场景的探索和技术手段的改进,AI或许仍能实现更大的突破,但这需要时间、耐心与更具创造力的策略。
马斯克升级对OpenAI的诉讼:添加反垄断指控与新被告
埃隆·马斯克(Elon Musk)针对OpenAI的法律战进一步升级。他最初于今年2月对OpenAI提起诉讼,指控其背离了最初的非营利使命。虽然案件在7月曾一度结案,但一个月后马斯克决定重新开案,而现在,这场法律战正变得更具火药味。 新的指控与被告 马斯克的律师团队对原有的107页诉状进行了强化,新增了多项指控及当事人: “xAI因无法以接近OpenAI所获得的优惠条件从微软获取计算资源而受到伤害。” 诉状指控Templeton曾是OpenAI董事会的非投票观察员,她涉嫌在微软和OpenAI之间达成协议并交换敏感信息,违反了反垄断规定。此外,霍夫曼则被控滥用其作为OpenAI和微软董事会成员的身份,获得不当的企业交易信息。 反垄断指控的核心内容 马斯克指控微软与OpenAI之间存在“事实上的合并”,这种合作关系削弱了市场竞争。具体指控包括: “允许Templeton和Hoffman在OpenAI董事会的任职,完全违背了反垄断法规设立的初衷。” 新原告:支持马斯克的盟友 诉状中新增了几位原告,其中包括马斯克的AI初创公司xAI,以及Shivon Zilis——她是马斯克子女的母亲之一、前特斯拉项目总监及现任Neuralink高管。Zilis曾在OpenAI董事会任职四年,据称与马斯克一样对OpenAI与微软的合作表达过担忧,但她的意见未获重视。 马斯克的论点:OpenAI的变质 马斯克在诉状中直指OpenAI已经从一个独立的非营利组织,逐渐沦为微软的“全资营利子公司”。他批评OpenAI“安全与透明”的创始使命被抛弃,取而代之的是追逐商业利益的行为,并认为这完全背离了创始时的初衷。 “再巧妙的措辞和再复杂的交易手法也掩盖不了事实:OpenAI正在成为微软的工具。” 案件影响 马斯克对OpenAI的诉讼不仅可能对双方未来的合作与竞争关系产生深远影响,也进一步揭示了科技巨头在AI领域的商业运作模式。案件的发展可能对AI行业的透明性、合作规范以及反垄断规则的执行带来广泛影响。
预测AI如何提升销售绩效管理:五大方式
预测AI如何提升销售绩效管理:五大方式 AI与精准数据结合,可以显著改善账户评分、配额优化等销售决策。以下将介绍如何将其融入销售策略。 背景:用AI驱动销售绩效管理(SPM) 现代企业在寻求增长时,往往忽略了一个关键因素——预测AI在销售绩效管理中的潜力。特别是对于销售队伍规模较大的企业,预测AI已经成为优化销售流程、提升收入的重要工具。 以假想医疗设备公司NovaMed为例:2022年,该公司因销售区域划分混乱、配额分配失衡等问题,销售额连续三年下滑,目标完成率仅为80%。通过引入AI驱动的SPM,NovaMed在两年内扭转了局面,实现了市场领先的表现。这充分展示了预测AI在SPM中的变革力量。 AI驱动的SPM:五大推动力 1. 提高预测准确性 预测AI分析历史数据与市场趋势,为销售决策提供精确预测。例如,NovaMed利用AI预测客户需求,优化库存与销售策略,提前应对市场变化。这种基于数据的预测方法使企业告别凭直觉规划的被动模式。 2. 客户账户评分 通过分析客户行为与潜在价值,AI帮助销售团队聚焦高回报的客户账户,提高转化率。例如,NovaMed此前试图“捕捉每一笔生意”,浪费了大量资源。预测AI将精力集中在最有可能成交的客户上,显著提升了销售效率与利润率。 3. 区域与配额优化 AI洞察复杂的销售区域与配额数据,帮助企业实现优化配置: 4. 销售容量规划 预测AI协助企业根据市场需求分配销售力量。例如,AI根据销售周期复杂性与市场特点,为NovaMed调整销售团队规模,实现资源的最佳匹配。 5. 促进跨职能协作 AI还可实时整合SPM相关功能,打破部门壁垒,改善决策流程。通过数据共享与联合目标设定,NovaMed将营销、销售与客户成功团队连接为一体,从而提升整个收入体系的效率。 实现AI驱动SPM的五大优先事项 转型的关键:以AI为助力而非替代 NovaMed的成功在于其清晰的愿景与战略执行。他们专注于培训销售团队,让AI成为支持销售领导的工具,而不是威胁。同时,通过明确的资源投入与持续改进,企业克服了技术和组织挑战,最终实现了收入增长的目标。 总结:SPM进入AI驱动时代 整合预测AI已成为推动销售绩效的必要策略。那些愿意抓住这一机会的企业,将有能力在复杂市场中取得竞争优势。对于前瞻性公司而言,AI不仅重新定义了SPM,也为其在市场变化中带来了灵活性与洞察力。
在Mac M4电脑上本地运行强大的开源AI模型成为可能,得益于Exo Labs的努力
苹果公司长期以来将其生成式AI努力集中于移动端,但最近发布的M4芯片为AI技术的发展开辟了新的可能性。无论是最新的Mac Mini还是MacBook Pro,这些搭载M4芯片的设备现在可以运行业界最强大的开源大型语言模型(LLM),如Meta的Llama-3.1 405B、Nvidia的Nemotron 70B以及阿里巴巴的Qwen 2.5 Coder-32B。 Exo Labs的突破性进展 总部位于迪拜的Exo Labs由Alex Cheema创立,致力于通过开源分布式计算技术“让AI更民主化”。Cheema最近在社交平台X上分享了他的成果:通过连接4台Mac Mini M4和1台MacBook Pro M4 Max,他成功运行了Qwen 2.5 Coder-32B模型,而这套设备的总成本约为5000美元,仅为一台Nvidia H100 GPU价格的六分之一。 Cheema认为,这种本地运行AI模型的方式不仅更具成本效益,还能显著提升隐私和安全性。“通过本地设备运行AI,可以完全控制数据和任务流程,避免云端泄露的风险,”他在接受采访时表示。 M4芯片的性能优势 苹果M4芯片凭借其超强的单线程性能和低功耗设计,成为AI任务处理的理想选择。Cheema的团队通过M4芯片组成功实现: 即便是更早的Mac硬件也表现不俗。例如,使用两台MacBook Pro M3运行Llama 3.1-405B,达到了5 tokens/秒的速度。这些结果表明,本地化的AI训练和推理工作流不再依赖昂贵的云基础设施。 对于预算敏感型企业和高度监管行业,Exo Labs的解决方案提供了一种经济高效且安全的选择。 分布式计算背后的理念 Cheema的创业灵感源于个人经历。他发现,传统的单设备AI任务运行效率低下。为了加速他的机器学习研究,他尝试连接朋友的旧设备并开发了分布式系统来分配任务。然而,这一过程面临的带宽问题让他意识到需要更高效的分布式计算工具。 最终,Cheema和联合创始人Mohamed “Mo” Baioumy开发了名为Exo的软件工具,并于2024年7月以开源形式发布在GitHub上,受GNU通用公共许可证保护,允许商业用途。 自发布以来,Exo在GitHub上的受欢迎程度不断上升,并获得了私人投资者的资金支持。 推动本地AI技术的未来 为帮助更多用户探索分布式AI计算的潜力,Exo Labs计划于下周推出一个免费基准测试网站,提供硬件配置的性能比较,帮助用户根据需求选择合适的解决方案。 Cheema强调,这些基准测试基于真实使用情况,而非理论估算,能够为AI开发者提供更清晰的指导。 他总结道:“我们的目标是通过展示可复制的测试设置,鼓励更多创新,让每个人都能更轻松地进入AI领域。” 无论是个人开发者还是企业,Exo Labs的技术都为那些希望在本地运行LLM的用户提供了一条高效、安全且经济的路径。
Stripe为LLM智能代理工作流添加支付功能
大语言模型(LLMs)可以被用来创建各种自动化功能,通常被称为“AI代理”。这些代理能够将提示转化为一系列程序化操作,与其他系统交互。 什么是代理式工作流? “代理式工作流”是一种结合了大语言模型和函数调用的自动化流程。以“订机票”为例,用户可能会输入:“帮我订一张4月24日从纽约到旧金山的机票,预算500美元以下。”为了实现这个目标,代理需要: 通过像Vercel的AI SDK、LangChain和CrewAI这样的框架,这些任务可以被分解并分配给专门的代理处理。此外,框架还能为代理配备“工具”,例如在线搜索功能或购买操作的代码片段,使得这些工具能够被调用以执行特定任务。 如何集成支付功能? 借助Stripe的代理工具包,你可以将其API直接嵌入代理框架中。Stripe工具包支持多个流行的框架,并可以与任何支持函数调用的LLM提供商兼容,比如Vercel的AI SDK或LangChain。 使用示例 假设需要构建一个“商务助手”代理来管理用户的账单。通过Stripe工具包,可以快速实现: 类似地,还可以将Stripe与Slack结合,打造复杂的多步自动化: 嵌入金融服务 代理式工作流不仅限于虚拟任务。例如,可以利用Stripe的虚拟卡生成功能来处理商务消费: 这种方式结合了LLM的智能决策能力和API的可控性,让自动化更加可靠。 用计量式计费追踪使用情况 代理工作流会消耗资源(如代币或时间),因此可以通过使用量计费为客户收费。Stripe工具包内置了中间件,可轻松追踪代币使用情况,并将其作为计费事件发送给客户: Stripe还提供快速入门指南,帮助开发者快速上手基于使用量的计费代理。 测试与可靠性 由于代理行为具有一定的随机性,建议开发者先在测试模式中运行,并使用受限API密钥限制代理的功能范围。例如,仅为库存管理代理启用产品和价格相关的功能: 通过减少功能范围,不仅降低了选择错误工具的风险,还避免任务中途因工具失败而中断。 总结 Stripe代理工具包让支付功能的集成变得前所未有的简单。无论是常见的支付任务自动化,还是基于使用量的计费模式,这一工具都能帮助开发者快速实现创新功能。想了解更多?访问官方文档获取详细信息!