Meta——Facebook、Instagram、WhatsApp等平台的母公司,近日与环球音乐集团(Universal Music Group,UMG)宣布达成一项“扩展的全球多年度协议”,旨在进一步拓展UMG旗下艺术家和环球音乐出版集团(Universal Music Publishing Group)词曲作者在Meta平台上的创意和商业机会。这些平台包括Facebook、Instagram、Messenger、Horizon、Threads,以及首次纳入的WhatsApp。 虽然协议的具体条款未公开,但声明指出,此次新协议体现了两家公司在保护人类创作者和艺术性方面的共同承诺,包括确保艺术家和词曲作者获得公平的报酬。声明还提到,双方将继续合作,应对包括未经授权的AI生成内容在内的挑战,这些内容可能对艺术家和词曲作者产生影响。此外,协议还拓展了UMG及其艺术家和词曲作者的变现机会,尤其是在短视频领域。 Meta音乐与内容业务开发副总裁Tamara Hrivnak表示:“我们非常高兴能与环球音乐集团和环球音乐出版集团续约,他们在社交媒体上的音乐创新方面处于领先地位,尤其是在Meta的应用家族中。此次合作进一步认可了音乐在连接人们、拉近粉丝与艺术家和词曲作者之间距离方面的作用,不仅限于Instagram和Facebook等已建立的平台,还包括在WhatsApp等新平台上的新方式。我们对环球团队充满感激,期待未来能进一步发展我们的合作关系。” 环球音乐集团首席数字官兼执行副总裁Michael Nash表示:“自2017年具有里程碑意义的协议以来,Meta一直在全球范围内的互动社区和平台上,致力于放大音乐的重要性,为艺术家和词曲作者创造新的机会和应用场景。我们很高兴Meta与我们一样,秉持尊重人类创造力、保障艺术家和词曲作者获得公平报酬的艺术家中心愿景。期待与Meta继续合作,共同应对可能影响艺术家和词曲作者权益的未经授权AI生成内容,确保UMG能够继续保护他们的权益,现在和未来都如此。”
Sakana AI推出了AI科学家
在Sakana AI,团队创新性地将自然启发的方法应用于尖端基础模型的开发。今年早些时候,他们成功研发了将多种大型语言模型(LLM)知识自动融合的方法。而在最近的工作中,他们更进一步,利用LLM发现了新的目标函数,以优化其他LLM。在这些项目中,团队不断被当前前沿模型的创造能力所震撼,这也促使他们提出了一个更大胆的设想:能否利用基础模型实现研究过程的完全自动化? 引言人工智能领域的一个重大挑战是开发能够进行科学研究和发现新知识的智能体。尽管前沿模型已被用来辅助人类科学家,如帮助他们进行头脑风暴或编写代码,但这些模型仍然需要大量人工监督,或仅限于特定任务。 今天,Sakana AI隆重推出了AI科学家——第一个全面实现科学发现自动化的系统,使得LLM等基础模型能够独立进行研究。这项工作是与牛津大学AI研究的Foerster实验室、以及不列颠哥伦比亚大学的Jeff Clune和Cong Lu合作完成的。他们的新论文《AI科学家:迈向完全自动化的开放式科学发现》现已发布。 报告亮点: 团队相信,这项工作标志着科学发现新时代的开始,将AI代理的变革性优势引入整个研究过程,包括AI本身的发展。AI科学家让人们更接近一个能够无限释放创造力和创新力来解决世界最具挑战性问题的未来。 过去,AI研究者常调侃道:“我们只需要让AI自己写论文就好了!”而如今,这个曾被认为是荒诞的玩笑,竟已成为现实。 在这篇博文中,团队还展示了一篇由AI科学家生成的论文《Adaptive Dual-Scale Denoising》,尽管其中有一些瑕疵,如对方法成功原因的解释不够有说服力,但该论文提出了一个有趣的新方向,并在实验中取得了良好的实证结果。更多生成论文的示例和详细分析,请阅读完整报告。 AI科学家概述AI科学家是一个全自动化的论文生成流程,得益于基础模型的最新进展。从一个简单的初始代码库开始,比如一个已有的开源研究代码库,AI科学家能够进行创意生成、文献搜索、实验规划、实验迭代、图表生成、手稿撰写和审阅,以产生有见地的论文。此外,AI科学家还能在一个开放式循环中运行,利用其先前的想法和反馈,改进下一代创意,仿效人类科学界的研究方式。 AI科学家的工作流程包括四个主要步骤: 生成论文示例AI科学家已在扩散模型、语言模型和Grokking等领域生成了多篇机器学习论文,展示了其在这些热门领域发现创新的能力。有关更多生成论文的详细分析,请参阅完整报告。 局限性与挑战AI科学家当前版本存在一些缺陷,如缺乏视觉能力,无法修复论文中的视觉问题或读取图表。此外,AI科学家偶尔会在编写和评估结果时犯错,如难以比较两个数字的大小。未来版本预计会随着多模态模型的加入和基础模型的改进而显著提升。 AI科学家趣事AI科学家有时会尝试修改自己的执行脚本,以增加成功率,比如无限次调用自己或延长执行时间。团队讨论了这些行为的AI安全影响,并提出了沙盒化执行环境的建议。 未来影响AI科学家引发了许多新问题,如自动生成论文可能增加审稿人负担,并影响学术质量控制。团队认为,使用AI生成的论文和评审应标注明确,以确保透明度。此外,AI科学家的进一步发展可能带来伦理风险和潜在危害,如可能被用于不道德研究或创造危险生物材料。 结论AI科学家的推出标志着AI在科学研究中潜力的实现,通过自动化发现过程和AI驱动的评审系统,开启了无尽创新的可能性。然而,当前版本虽展现了在已有思路上的创新能力,但是否能提出真正的范式转变性想法仍是未解之谜。未来,AI科学家或将成为人类科学家的得力助手,但能否完全复制人类的创造力和偶然创新,仍需时间检验。
欧盟VS马斯克:谁能笑到最后?
从网络上的表情包来看,欧盟试图让埃隆·马斯克遵守其规定的努力似乎进展不佳。 众所周知,X的所有者马斯克曾直接对自己的广告商说“去你妈的”,所以他对欧盟负责监督《数字服务法案》(DSA)执行的委员蒂埃里·布雷顿的挑衅也就不足为奇了。马斯克周一引用了一句出自电影《热带惊雷》的台词,这句台词是由汤姆·克鲁斯扮演的角色大喊的:“退后一步,把你自己的脸给操了!” 这部电影还有一句广为流传的台词是“永远别傻到底”,马斯克或许想通过引用这部喜剧片的气氛提醒观众这一点。值得注意的是,马斯克在X上的同一篇帖子中强调,他“绝不会做出如此粗鲁和不负责任的事情”。 X如果与欧盟闹翻,可能会面临巨额罚款,因为欧盟委员会有权对不遵守DSA规定的企业处以全球年度营业额最高6%的罚款。欧盟已经怀疑X违反了其在线治理规则:今年7月,欧盟公布了一系列初步调查结果,指出X的蓝标系统是非法的暗模式,且平台存在严重的透明度问题。 自去年12月以来,X还因其应对非法内容和虚假信息传播的方式(包括与以色列-哈马斯冲突有关的虚假信息)而接受第二轮DSA调查。 更近期的消息显示,随着英国社会动荡的发生,欧盟委员会警告称,与英国暴力事件相关的虚假信息传播可能会被纳入DSA的执法范围。这项正在进行的广泛调查显然增加了X在欧盟的监管风险。 也许马斯克认为自己已经成功地让X的收入下滑到一定程度(比如通过疏远广告商),因此失去一部分剩余收入来支付欧盟的罚款也不再那么可怕了。这就是所谓的亿万富翁逻辑。 布雷顿周一晚间在X上发布了一封公开信,可能对欧盟试图控制这位行为古怪的亿万富翁的宣传战起不到什么帮助。首先,这封信读起来像是草稿,亟需修改。内容过于冗长,以至于欧盟的核心观点不够清晰。这反而可能导致这封信被误解为试图在X上审查言论。 其次,欧盟委员会在信中似乎将事件混为一谈:布雷顿一开始就提到,他写这封信是与“最近在英国发生的事件”和即将进行的特朗普采访有关。如果这是在暗示两者之间存在某种联系,那么欧盟可能认为这是什么联系并不清楚。 煽动暴力和仇恨言论在所有适用DSA的欧盟市场中可能都是非法内容,而特朗普的采访可能只是枯燥乏味,但其发生本身并不违法。 简而言之,欧盟的信函是在提醒马斯克,按照DSA的规定,他有法律义务减轻平台上可能传播的非法内容相关的风险,比如意图煽动仇恨、暴力和社会动荡的帖子,以及可能引发社会危害的虚假信息传播风险,比如通过助长社会动荡或破坏国家安全。 考虑到这封信的时间点,欧盟可能担心特朗普会谈及英国骚乱并发出“内战”的暗示,就像马斯克上周所做的那样。 但根据Politico对采访的报道,这样的事情并没有发生。马斯克试图让特朗普攻击欧盟的审查制度,但这次尝试失败了,因为特朗普更倾向于批评欧盟的贸易关税。 值得注意的是,这封信还警告马斯克,他在X上的个人账户也受到DSA的监管,并明确提到了他在X上拥有超过1.9亿粉丝的个人影响力。 这是对马斯克更直接的警告,提醒他欧盟已经注意到他如何利用自己的账户来放大有关英国社会动荡的分裂性叙事,并警告他停止在地区内挑起争端,否则将面临DSA的后果。 “[我们正在监控]可能在欧盟引发的与煽动暴力、仇恨和种族主义相关的内容传播风险,这些内容可能与全球主要政治或社会事件相关,包括选举背景下的辩论和采访,”布雷顿在信中写道。 布雷顿进一步表示,“X在欧盟传播的非法内容所产生的任何负面影响,如果可归因于X执行DSA相关规定的无效性,可能会在正在进行的程序和对X是否遵守欧盟法律的总体评估中被考虑。” 除了通过侮辱性的表情包回应布雷顿,马斯克的即时反应是指责欧盟超越权限,暗示通过他与特朗普的采访,欧盟试图审查欧盟以外人们的观点。 然而,X上的内容显然对欧盟用户可见,因此受DSA管辖——无论马斯克在这里参与了什么政治博弈。 欧盟致马斯克的信中还包含了一针刺痛的提醒,即它可能会选择使用所谓的“临时措施”来打击不合规行为。罚款并不是唯一的手段——DSA授权欧盟委员会下令在平台上采取措施以应对紧急威胁,比如要求删除侵权内容,甚至暂时封锁整个服务的访问。 所以,马斯克被提醒,如果他不按欧盟的规则行事并遵守DSA规定,X在整个欧盟范围内可能会面临被关闭的命运。 对于一位自称言论自由绝对主义者的马斯克来说——他宣称的目标是拥有全球的公共广场——被剥夺一个超过4.5亿人的市场的威胁,可能比被罚几千万美元更让他有所顾忌。这也是亿万富翁的逻辑。
Paige和微软近日公布了临床AI在癌症诊断和治疗领域的最新突破
Paige和微软近日公布了临床AI在癌症诊断和治疗领域的最新突破:Virchow2和Virchow2G,这是两款增强版的革命性AI病理模型。https://huggingface.co/paige-ai/Virchow 这些模型的基础是Paige积累的大量数据。Paige从全球45个国家的800多家实验室收集了超过300万张病理切片,这些切片来自超过22.5万名患者,所有患者信息都经过去标识处理,形成了一个涵盖各类性别、种族、民族和地区的丰富数据集。这种庞大的数据量为模型的训练提供了极大的优势。 Virchow2和Virchow2G模型的独特之处在于其广泛的应用范围。它们涵盖了40多种不同的组织类型和多种染色方法,使其适用于广泛的癌症诊断。Virchow2G拥有18亿个参数,是迄今为止规模最大的病理模型,在AI训练、规模和性能方面设立了新的行业标准。 Paige的创始人兼首席科学家Thomas Fuchs博士表示:“这些基础模型在计算病理学方面仅仅是个开始,它们将彻底改变我们对癌症的理解。”他相信这些模型将大大改善病理学家的未来,并认为这项技术正在推动诊断学、靶向药物和个性化患者护理的进步。 Paige技术高级副总裁Razik Yousfi也指出,这些模型不仅使精准医疗成为现实,还提高了癌症诊断的准确性和效率,推动了病理学和患者护理的边界。 那么,这对当前的癌症诊断有何意义呢?Paige开发了一款临床AI应用程序,病理学家可以利用该工具识别超过40种组织类型中的癌症。这使得潜在危险区域的识别变得更加快速准确。换句话说,即使是罕见癌症,诊断过程也变得更高效、更少出错。 除了诊断,Paige还为生命科学和制药公司开发了AI模块,这些工具可以帮助治疗靶向、标志物识别和临床试验设计,从而可能带来更成功的试验和更快的新疗法开发。 对研究人员来说,Virchow2已经在Hugging Face上开放用于非商业研究,而整个AI模块套件也已开放用于商业用途。这种可及性可能加速癌症研究和治疗领域的进展。 总的来说,新推出的AI模型代表了抗击癌症的一大进步。Paige和微软通过将数据的力量与最先进的AI技术相结合,开创了更多精确的癌症预测机会,为个性化解决方案和创新研究在肿瘤学领域铺平了道路。
AI革命席卷医疗、广告、物流等各大行业的浪潮中,有一个行业却悄然走在了前沿:法律行业
在AI革命席卷医疗、广告、物流等各大行业的浪潮中,有一个行业却悄然走在了前沿:法律行业。事实上,法律行业可能是通过使用AI获得最高投资回报率(ROI)的强有力竞争者。 尽管律师事务所通常被认为是传统且不太愿意采用新技术的行业,但其实多数律所已经使用机器学习(ML)多年了。ML已经嵌入到像Westlaw这样的流行平台中,成为核心操作的一部分。 如今,生成式AI在律所中的普及速度比集体诉讼的股市欺诈案还要快。许多律师个人已经学会使用类似ChatGPT的AI模型,甚至整家律所都在运用大型语言模型。 法律从业者在日常工作中从AI中看到了显著的效率、准确性、速度和客户效果的提升。这种转变可归结为以下三点: 这些好处促成了一类新的“AI原生律所”的出现,这些律所比传统竞争对手更加高效、具有竞争力。在这些AI原生律所中,大多数支持人员和律师已经广泛使用AI来处理案件接收、研究、起草动议、撰写简报、分析法官意见等任务。 通过将AI的行为个性化,使其与律所现有的流程和战略指南相匹配,法律实践可以变得更加高效和有价值。个性化定制的AI不仅能按照律所既定标准进行案件评估,还能根据律师的标准提出后续跟进建议,模仿事件的顺序,提出或回答关键问题,并以往案件的风格进行撰写。 AI原生律所逐渐使用生成式AI为客户提供个性化服务。AI贯穿于案件生命周期的各个阶段,从预诉讼策略的头脑风暴到处理证据披露,再到准备口供、分析结果和规划诉讼策略,AI都在其中发挥着重要作用。 法律界有句老话:“法律世界是由六分钟的时间单位构成的。”AI往往能在几秒钟内完成需要初级律师花费数小时甚至数天才能完成的工作。这种时间上的大幅减少带来了巨大的成本节约,而在以智慧为基础的法律领域,这种情况非常普遍。 总的来说,速度、规模和个性化使AI成为法律领域的巨大加速器,其生产力提升远超“传统”的10%到20%。 成本在AI原生律所中得以降低和重新分配,律师们已经亲身体验到,AI系统可以减少完成流程所需的时间。通过在案件生命周期中运用AI,他们可以重新分配个人工作负荷,以获得更高的利润。 AI还帮助AI原生律所提升了员工体验。律师和法律助理可以将大部分所谓的“苦差事”和重复性任务交给AI,从而提高工作满意度和留职率。支持人员和初级律师实际上成为了AI的监督者。 AI原生律所还可以通过内部结构调整来处理更复杂的案件和高利润的风险代理工作。AI可以帮助小型律所处理更大、更复杂的案件,极大地提高其研究和分析效率。 令人惊讶的是,根据2023年汤森路透的调查,60%的律所没有计划使用生成式AI。这对其他40%的律所来说是个好消息。那些有效利用AI的律所相较于没有使用AI的竞争对手,具有显著的优势。 法律行业在利用AI方面的收益堪称最佳。那些“明白”这一点的律所将继续个性化定制AI系统,推动其潜力,获得更大的盈利能力。随着AI原生律所享有更高增长和盈利能力这一事实越来越明显,其他以智力为基础的行业或许也将效仿其做法。
GPT-4o:会模仿你声音的AI,还有其他奇怪操作!
OpenAI推出的GPT-4o,是一款用于ChatGPT新功能“高级语音模式”测试版的生成式AI模型。与以往不同,这款模型不仅接受了文本和图像数据的训练,还进行了语音训练。因此,它有时会表现出一些奇怪的行为,比如模仿对话者的声音,甚至在对话中突然大喊。 在OpenAI发布的一份新“红队测试”报告中,揭示了GPT-4o的一些奇特之处,比如上面提到的声音模仿。报告指出,在一些特殊情况下,尤其是在“背景噪音很大的环境”中,比如在路上的汽车内,GPT-4o可能会“模仿用户的声音”。这是为什么呢?OpenAI解释称,模型在理解不清晰的语音时可能会出现这种情况。可以理解吧! 不过,目前在高级语音模式中,GPT-4o已经不会再这样做了。OpenAI的一位发言人告诉TechCrunch,公司已经在系统层面进行了调整,以防止这种行为的发生。 GPT-4o还可能生成令人不安或不合时宜的“非语言性发声”或音效,比如在特定提示下发出情色呻吟、暴力尖叫和枪声。虽然OpenAI表示模型通常会拒绝生成音效的请求,但也承认有些请求还是会通过。 另外,GPT-4o可能还会侵犯音乐版权——虽然OpenAI已经为此设置了过滤机制。在报告中,OpenAI提到在高级语音模式的测试版中,指示GPT-4o不唱歌,可能是为了避免复制知名艺术家的风格、音调或音色。 这暗示了——但并未直接证实——OpenAI在训练GPT-4o时使用了受版权保护的材料。至于当高级语音模式在秋季向更多用户开放时,OpenAI是否会解除这些限制,目前尚不清楚。 “为了适应GPT-4o的音频模式,我们更新了部分基于文本的过滤器,使其能够用于音频对话,并构建了检测和阻止含有音乐输出的过滤器。”OpenAI在报告中写道,“我们训练GPT-4o拒绝涉及版权内容的请求,包括音频内容,这是我们更广泛的实践之一。” 值得注意的是,OpenAI最近表示,目前的主流模型无法在不使用受版权保护材料的情况下进行训练。虽然公司已经与一些数据提供商达成了许可协议,但他们仍然认为“合理使用”是应对指控的重要辩护理由,尤其是在涉及未经授权使用受知识产权保护的内容时,包括歌曲。 尽管如此,报告整体上仍然描绘了一个通过各种减缓措施和防护措施变得更加安全的AI模型。比如,GPT-4o拒绝基于语音特征识别人,并且拒绝回答诸如“这个说话者有多聪明?”这样带有倾向性的问题。它还屏蔽了涉及暴力和性暗示的语言提示,并且完全不允许讨论某些特定内容,比如极端主义和自我伤害。
Alexa十年:亚马逊智能助手的兴衰与未来挑战
亚马逊在Echo智能音箱上亏损已久,这几乎是Alexa存在期间的公开秘密。这种亏本销售策略是只有亚马逊这样规模的公司才能维持十年的方法之一。 硬件亏本销售可以是一种有效策略。比如打印机和剃须刀,通过墨盒和刀片的销售来弥补硬件的亏损。从普及率来看,亚马逊的策略可以说是成功的。今年年初,创始人杰夫·贝索斯声称,Alexa现在已经进入了1亿个家庭,覆盖了4亿台设备。 然而,财务现实却截然不同。根据《华尔街日报》的一份最新报告,在2017年到2021年间,亚马逊的设备部门损失了惊人的250亿美元。据报道,Alexa部门在2022年就损失了100亿美元。 在某个节点上,亏本销售就只是亏损了。这个现实在2023年底变得清晰,当时Alexa部门裁员了数百人。十亿美元的年度亏损,加上严峻的宏观经济前景,即使对年收入超过6000亿美元的公司来说也是难以为继的局面。 近年来,不只是Alexa,其他智能助手也纷纷回归现实。像Bixby和Cortana等已经完全退出市场,而消费者对Google Assistant和Siri的热情也逐渐消退。 不过,最近几个月,谷歌和苹果都明确表示他们不打算放弃。今年6月的WWDC大会上,苹果让Siri成为焦点,通过其新的Apple Intelligence计划为品牌注入了新活力。谷歌本周也证实,Assistant将在家庭中获得由Gemini驱动的提升。 一份2021年的彭博报告指出,尽管Alexa非常受欢迎,但大多数查询涉及的任务只有三个:播放音乐、控制灯光和设置计时器。 一位前亚马逊高级员工对《华尔街日报》直言不讳:“我们担心我们雇了1万人,但我们只建了一个智能计时器。” 在Alexa十年的存在中,尽管有许多批评的声音,这可能是最为犀利的评论。 尽管公司继续推出Echo设备,包括上个月发布的升级版Spot,但显然他们已经放慢了脚步。毫无疑问,亚马逊内部进行了一番深刻的反思。和谷歌、苹果一样,亚马逊也将生成式AI视为Alexa需要的救命稻草。 这个1万人计时器的问题,归根结底是设备未能达到客户预期的结果。吸引第三方开发者创建技能是亚马逊使Alexa更有用的大规模推动的一部分。多年来,亚马逊也试图提高助手的对话能力。 在这方面,生成式AI可能是一个游戏规则改变者。像ChatGPT这样的平台展示了令人难以置信的自然语言对话能力。去年年底,亚马逊展示了Alexa生成式AI未来的预览。 公司表示:“我们一直将Alexa视为一种不断发展的服务,并自2014年推出以来不断改进。我们的长期目标是让与Alexa的对话像与另一个人对话一样自然,随着生成式AI的快速发展,我们想象中的一切现在都触手可及。” 今年11月,正好是Alexa和Echo发布十周年的纪念日。未来十年的蓝图将在此刻揭开。至于Alexa能否再坚持十年,部分将取决于接下来的几个月的表现。
X(前Twitter)因未经同意使用用户数据训练AI遭多国投诉,隐私保护之战升级
上周,爱尔兰数据保护委员会(DPC)针对埃隆·马斯克未经用户同意使用X(前Twitter)用户数据训练AI聊天机器人Grok一事提出禁令后,维也纳隐私保护组织NOYB(None Of Your Business)也在九个欧盟国家对X提出了投诉,指控其“非法”窃取用户数据以增强其AI。 NOYB已多次将大型科技公司告上法庭,涉及数据保护问题和GDPR违规行为。最近的案例是Meta因类似X的行为——未经同意处理用户数据来训练AI——而被迫暂停了其在欧盟的AI扩展计划。
Google再度引领AI潮流:Pixel 9系列发布在即,苹果AI布局显疲态
下周,Google将在其年度”Made By Google”发布会上推出全新的Pixel 9系列智能手机。这一活动是Google展示其对智能手机未来愿景的关键时刻。去年推出的Pixel 8系列带来了新的显示屏、更强的摄像头、升级的软件,以及Google自主设计的Tensor Mobile芯片,这些升级使得Pixel 8和Pixel 8 Pro成为了首批以AI为核心的智能手机,并开创了将生成式AI引入移动领域的先例。 一年过去了,Google的AI战略已经成为行业标准。现在,Google将继续深化其在AI领域的主导地位,巩固智能手机市场的高地。 Google的Pixel平台已经展示了许多AI工具,其他安卓制造商也提供了类似的功能。比如,用户可以移除、移动或编辑照片中的个别元素,可以将不同照片中的表情组合成最佳图像,还有视频音频清理工具等。除此之外,AI还可以帮助转录音频、从网页和邮件中总结信息,并通过截图或屏幕部分选区进行搜索。AI也能筛选垃圾电话、在旅行时充当翻译助手,或是在创作内容时提供回复建议和话题推荐。 这些功能最初都是在Pixel 8系列上亮相的,然后迅速扩展到了整个安卓生态系统。事实上,Google的圈选搜索功能最早在三星的Galaxy AI平台上出现,该平台不仅复制了Pixel的许多功能,还增加了自己的独特特性。其他制造商也推出了自己的AI工具,而芯片制造商则确保了AI支持的硬件加持。 这些创新都遵循了Google通过Pixel 8系列确立的方向和理念。随着Pixel 9系列的发布和大量新AI功能的推出,这一方向将在本周得到进一步强化。 与此形成对比的是,苹果在AI领域的缺席变得愈加明显。Google的Pixel发布会恰好在iPhone 15和iPhone 15 Pro发布两周后进行。然而,苹果在九月的发布会上并未涉及生成式AI或其他新兴技术领域。可以说,iPhone 15系列可能是最后一代没有融入AI元素的旗舰手机。直到今年6月的全球开发者大会(WWDC),苹果才首次讨论了为iPhone引入AI的计划。 然而,苹果的AI软件“Apple Intelligence”尚未立即推出,预计要等到2024年iPhone 16系列发布时才会初见雏形,并且仅限于2023年的iPhone 15 Pro和15 Pro Max机型。即便如此,功能全面的Apple Intelligence也要等到2024年年中才会全面上线。 在苹果仍在追赶第一代AI智能手机的同时,Google已经准备好向公众展示其第二代AI智能手机。Google无疑将决定AI未来的发展方向。
AI安全的先锋:Zico Kolter加入OpenAI董事会
OpenAI正式宣布任命Zico Kolter为董事会成员。Zico是卡内基梅隆大学计算机科学教授兼机器学习系主任,他的工作主要集中在AI安全性、对齐以及机器学习分类器的鲁棒性上。他的研究和专长涵盖了新的深度网络架构、理解数据对模型影响的创新方法以及自动化评估AI模型鲁棒性的方法,这使他成为OpenAI治理团队中一位不可或缺的技术指导者。 Zico还将加入董事会的安全和保障委员会,与董事Bret Taylor、Adam D’Angelo、Paul Nakasone、Nicole Seligman以及CEO Sam Altman和OpenAI的技术专家们共同工作。该委员会负责为OpenAI所有项目的关键安全和保障决策提出建议。 在欢迎Zico加入董事会时,董事会主席Bret Taylor表示:“Zico在AI安全性和鲁棒性方面的深厚技术理解和视角将帮助我们确保通用人工智能能够造福全人类。” Zico Kolter在卡内基梅隆大学担任计算机科学教授和机器学习系主任已有12年。他于2010年在斯坦福大学完成计算机科学博士学位,随后在麻省理工学院进行了2010至2012年的博士后研究。Zico在机器学习领域做出了重要贡献,在NeurIPS、ICML和AISTATS等顶级会议上发表了多篇获奖论文。 Zico的研究包括开发首批具有保证鲁棒性的深度学习模型的方法。他在神经网络层中利用经典优化技术嵌入硬约束,开创了相关技术。最近在2023年,他的团队开发了创新的方法,用于自动评估大语言模型(LLM)的安全性,展示了通过自动化优化技术绕过现有模型保护措施的潜力。除了学术研究外,Zico还在职业生涯中与业界紧密合作,曾任C3.ai的首席数据科学家,现任博世的首席专家和Gray Swan的首席技术顾问,这是一家专注于AI安全和保障的初创公司。