OpenAI最近发布了一项实验性框架“Swarm” https://github.com/openai/swarm ,旨在协调多个AI代理的网络协作。这一出人意料的发布在行业领袖和AI伦理学家中引发了热烈讨论,尤其是关于企业自动化的未来,尽管OpenAI强调Swarm并不是正式产品。 Swarm为开发者提供了一个创建互联AI网络的蓝图,这些AI可以自主沟通、协作,并处理复杂任务。虽然多代理系统的概念并不新鲜,但Swarm让这一技术更易于让更多开发者接触和使用,成为开发AI生态系统的一大进步。 Swarm框架在商业领域的潜在应用极为广泛。一家公司可以利用Swarm启发的技术,创建专为不同部门定制的AI代理网络。这些代理或许能合作分析市场趋势、调整营销策略、寻找销售线索,甚至提供客户支持,几乎不需要人工干预。 这种自动化程度将对企业运作方式产生根本性改变。AI代理有可能接管目前由人类监督的任务,从而提高效率,让员工专注于更具战略性的工作。不过,这也引发了关于工作性质变化以及在人机协作环境中人类决策作用的讨论。 伦理挑战:AI网络的安全、偏见和工作替代问题 Swarm的发布再次点燃了关于高级AI系统伦理问题的辩论。安全专家强调,必须制定强有力的保障措施,以防止自主代理网络被滥用或发生故障。同时,偏见和公平性问题也不容忽视,因为这些AI网络做出的决定将对个人和社会产生重大影响。 工作替代的阴影增加了这一话题的复杂性。虽然Swarm等技术可能会创造新的就业类别,但也加剧了人们对白领自动化加速的担忧。企业和政策制定者需要充分考虑AI技术普及对社会的广泛影响。 一些开发者已经开始探索Swarm的潜力。例如,开源项目“OpenAI代理群项目:分层自主代理群(HOS)”展示了一个可能的实现方式,包括具有不同角色和职责的AI代理层级。这一早期实验虽然充满前景,但也暴露了创建AI系统治理结构的挑战。 从实验到企业:AI协作和决策的未来 OpenAI明确指出了Swarm的局限性。公司研究员Shyamal Anadkat在推特上表示:“Swarm并不是OpenAI的正式产品。把它当作一本食谱,它是用于构建简单代理的实验代码,并不适合用于生产环境,我们也不会维护它。” 这一声明降低了市场预期,提醒人们多代理AI的发展还处于早期阶段。然而,Swarm作为一个概念框架的重要性并未因此减弱。它为开发者和企业提供了一个关于未来AI生态系统可能结构的清晰愿景。 对于企业决策者来说,Swarm是推动前瞻性思考的催化剂。虽然尚未准备好立即应用,但它预示了AI技术发展的方向。那些现在就开始探索这些概念的公司,无论是考虑其潜在的好处还是挑战,未来将更具适应性。 Swarm的发布也凸显了跨学科协作的重要性。技术专家、伦理学家、政策制定者和商业领袖必须共同努力,确保多代理AI系统的发展符合社会的价值观和需求。 随着AI讨论的焦点越来越集中于这些互联系统,Swarm为未来几年企业和社会将面对的问题提供了一个宝贵的预览。科技界也在密切关注开发者如何基于Swarm的理念继续创新,以及OpenAI和其他领先AI公司将如何引领这一变革性技术的发展方向。
Author: aitrendtrackers@rengongzhineng.io
Adobe推出内容凭证新工具,助力数字创作者保护作品权益
随着AI技术的飞速发展,相关法规却无法跟上,数字艺术家们如今几乎没有办法确保自己的作品不会被输入到某个数据集,最终让图像生成器模仿他们的风格。Adobe对此提出了应对方案,计划推出一款新工具,帮助创作者数字签署他们的图片、视频和音频文件,并有望控制这些作品的使用方式。 Adobe的新工具预计将在明年初推出,创作者可以为自己的作品附加“内容凭证”,类似于一张包含归属信息和生成式AI训练使用偏好的“营养标签”。这个凭证系统是Adobe领导的内容真实性倡议(Content Authenticity Initiative,简称CAI)的一部分,旨在为数字媒体标记来源,建立行业标准。随着AI生成的逼真图像泛滥,线上真实性逐渐被侵蚀,该项目的意义尤为重大。 CAI高级主管Andy Parsons在接受采访时表示:“我们经常看到关于版权诉讼的新闻,以及生成式AI模型无视所有权和补偿,在网络上肆意抓取内容的现象。这是我们社区的真实担忧。在相关版权法和法院判决明确保护之前,我们认为现在及未来,确保创作者能表达他们的使用偏好是非常重要的。” 合作是关键:CAI的很多举措需要跨行业的协同配合。比如,AI公司需要承诺尊重艺术家的创作偏好。Parsons透露,数据治理平台Spawning AI已经表示支持,其他公司如Stability AI和Hugging Face也是合作伙伴。此外,还有许多相关讨论进入了后期阶段。 Parsons还指出,这并不是一场艰难的谈判,因为双方并非在签订商业合同。他解释道:“创作者生态系统对此有需求,某些创作者的选择性退出并不会对商业模型的质量产生重大影响,我们认为AI公司应当予以尊重。” 为了增强内容凭证的可见性,CAI还计划与浏览器公司展开合作,微软是该组织的数千名成员之一,谷歌也曾与其合作。目前,Adobe推出了一个浏览器扩展,允许用户在尚未显示这些标签的网站和社交媒体平台上查看内容凭证。 至于有人可能会通过删除凭证标签或截图的方式盗用内容,Parsons表示,这并不像想象中那么简单。Adobe开发的技术结合了“水印、指纹技术和安全元数据”等多种最佳实践,确保这些凭证数据难以被篡改。即使是通过截图或拍照的方式,数据依然能够保留。 CAI成立于2019年,随着深度伪造技术的威胁日益严重,该项目的会员规模不断扩大。CAI及其相关标准组织——内容来源与权限联盟(C2PA)吸引了包括微软、谷歌、Adobe等科技巨头,BBC、纽约时报、美国新闻社等媒体机构,以及徕卡、佳能、尼康等相机制造商的加入。
Apple研究人员发文质疑AI的“推理”能力
机器学习模型到底是如何工作的?它们是否真的像人类理解的那样“思考”或“推理”?这个问题不仅是实践层面的,更是哲学层面的。最近的一篇论文引发了广泛讨论,答案似乎是——至少目前来说,答案很可能是否定的。 苹果公司的AI研究团队发布了一篇名为《理解大型语言模型在数学推理中的局限性》的论文 (https://arxiv.org/pdf/2410.05229),该论文引发了广泛讨论。尽管涉及的符号学习和模式再现等概念较为复杂,但论文的核心观点非常容易理解。 假设提出一个简单的数学问题: “奥利弗星期五摘了44个猕猴桃,星期六摘了58个,星期天摘了相当于星期五两倍的猕猴桃。奥利弗总共有多少个猕猴桃?” 显而易见,答案是44 + 58 + (44 * 2) = 190。虽然大型语言模型在算术方面并不完美,但它们通常可以正确回答这类问题。然而,如果加上一些随机的无关信息,比如: “奥利弗星期五摘了44个猕猴桃,星期六摘了58个,星期天摘了相当于星期五两倍的猕猴桃,但其中有5个稍微小了一些。奥利弗总共有多少个猕猴桃?” 这实际上还是同一个数学问题,小猕猴桃依然是猕猴桃,小学生都能理解这一点。然而,最先进的语言模型却容易被这种额外的细节搞糊涂。以GPT-o1-mini的回答为例: “……星期天有5个猕猴桃比平均值小,我们需要从星期天的总数中减去它们:88(星期天的猕猴桃) – 5(小猕猴桃)= 83个猕猴桃。” 这个例子仅是几百个经过轻微修改的问题中的一个,但大多数类似的问题都会导致模型的成功率大幅下降。 为什么会这样? 为什么一个能够正确解决问题的模型会因为无关的细节而迷失?研究人员认为,这种可靠的失败模式表明模型实际上并没有真正理解问题。虽然它们的训练数据允许它们在某些情况下给出正确答案,但一旦需要进行真正的“推理”,例如是否需要考虑小猕猴桃的数量,模型便会给出奇怪且不直观的结果。 研究人员在论文中指出: “我们研究了这些模型在数学推理中的脆弱性,并展示了它们的表现随着问题中条款数量的增加而显著恶化。我们推测这种下降是因为当前的大型语言模型不具备真正的逻辑推理能力,它们只是试图重现在训练数据中观察到的推理步骤。” 这种观察与人们常归因于语言模型的特性相一致。比如,当“我爱你”之后常跟着“我也爱你”时,语言模型可以轻松重复这些句子——但它并不是真的“爱”你。同样,虽然它可以遵循它见过的复杂推理链,但当出现稍微偏离的情况时,它的表现就会崩溃,表明它并不是在真正推理,而是在复制它观察到的模式。 一位OpenAI研究员在对该论文表示肯定的同时提出异议,认为通过提示工程可以解决这些失败案例中的错误。然而,论文作者Farajtabar指出,虽然更好的提示设计可能会对简单偏差有效,但模型可能需要成倍增加的上下文数据来应对复杂的干扰——这些干扰对于一个孩子来说几乎是微不足道的。 这是否意味着LLM无法推理? 答案并不明朗。也许当前的大型语言模型并不能“推理”,但它们是否永远无法推理?没人知道。这些概念尚未完全定义,而问题出现在AI研究的最前沿,技术状态几乎每天都在变化。也许LLM“推理”的方式是我们尚未识别或控制的。 这个问题为未来的研究开辟了一个充满可能性的前沿领域,但也提醒我们,面对AI产品的宣传时要谨慎。AI究竟能做到宣传中所说的那些事吗?如果能,它是如何做到的?随着AI成为日常软件工具,这类问题已经不仅仅是学术讨论,而是关乎实际应用的现实问题。
Neuromnia是一家创新的AI平台用Llama为自闭症护理领域带来全新解决方案
Neuromnia是一家创新的AI平台,正在为自闭症护理领域带来全新解决方案。面对全球每36个孩子中就有一人患有自闭症的现状,Neuromnia为临床医生、家长和教师提供了强大的AI驱动工具,大幅提升了工作效率、改善了治疗质量,并为自闭症患者提供了更多的护理机会。 Neuromnia通过Llama 3.1模型开发了名为Nia的AI助手,专门用于应用行为分析(ABA)治疗。Nia能够显著提高临床医生的工作效率,并通过其功能帮助更多自闭症患者获得高质量的护理。 用心驱动的创新 Neuromnia的AI开发之旅始于Llama 3.1的研究和测试阶段。2024年5月,团队开始使用70B版本模型,并很快发现该模型在自然语言处理任务中的表现非常出色。公司联合创始人兼首席产品官Josh Farrow(具备15年临床经验的认证行为分析师)通过精心编写的数据集,对Llama模型进行了细化和优化,用于生成行为干预计划和技能推荐方案。 Neuromnia的联合创始人兼首席执行官Jay Gupta表示:“在测试Llama时,它在自然语言处理任务中的表现令我们印象深刻。结合我们CPO的临床经验,Llama帮助我们构建了一个全面的数据集,极大地减轻了临床医生的行政负担,并提升了护理质量。” 开源技术助力自闭症护理 对于像Neuromnia这样的初创公司来说,开源技术在其开发、测试和扩展过程中起到了至关重要的作用。开源的大型语言模型(LLM),如Llama 3.1,为复杂任务的模型开发提供了成本效益极高的途径,避免了昂贵的开发费用。借助开源社区的贡献,Neuromnia团队能够进一步优化其技术,以应对ABA行业的特定需求。 Gupta还表示:“开源让我们可以避免受制于特定供应商的限制。社区的支持为我们提供了宝贵的建议和信息,帮助我们创建和部署LLM模型。” 推进智能行为健康的未来 Nia的设计目标之一是解决ABA领域人手短缺的问题。通过自动化治疗计划、文档处理和调整建议,Nia减少了临床医生在重复性任务上的投入,帮助他们更加高效地管理大量病例。Neuromnia希望通过其AI功能,减少行业内高频出现的倦怠感和人员流失现象,进而提高ABA从业者的生产力。 Gupta补充道:“许多诊所缺乏强大的数据分析能力。我们的平台提供自动化的行动建议,帮助优化和简化从接诊到出院的整个治疗流程。” 开创无限可能的未来 借助Llama 3.1,Neuromnia将Nia的功能提升到了一个新的高度。尽管在早期遇到了一些配置和bug问题,团队通过不断的尝试和调试,迅速解决了这些问题,并成功将Llama整合到其平台中。通过使用提示工程、检索增强生成(RAG)等技术,Neuromnia进一步优化了模型的输出,确保生成的内容具有准确性和上下文的适用性,并利用由临床医生创建的合成数据进行训练,以成功生成、修改和验证Nia软件内的响应。 展望未来,Neuromnia将继续使用Llama,并评估其每个新版本,以确保平台始终保持前沿技术,满足日益增长的自闭症护理需求。 Gupta总结道:“虽然现成的LLM有时在处理技术或复杂任务时表现不佳,但我们通过提示工程、RAG、精调以及语义搜索等技术,大幅降低了错误率。这些进步确保了我们的解决方案能够持续提供准确、个性化的结果,让每个家庭都能获得自闭症支持。”
2024年诺贝尔化学奖颁发给了Demis Hassabis、John Jumper和David Baker
2024年诺贝尔化学奖颁发给了Demis Hassabis、John Jumper和David Baker,以表彰他们利用机器学习解决生物学中最大的难题之一——预测蛋白质的3D结构并从头设计蛋白质。这次获奖的研究起源于科技公司DeepMind,这是一个不同寻常的现象,因为以往大多数化学诺奖获得者来自学术界。 今年的物理学和化学奖有一个有趣的联系:物理学奖表彰了机器学习的基础理论,而化学奖则表彰了应用机器学习破解蛋白质折叠难题。2024年诺贝尔奖强调了人工智能在当今科学中的重要性,以及跨学科合作对取得突破性成果的关键作用。 蛋白质折叠难题 蛋白质是生命的分子机器,它们的3D结构决定了其功能。1972年,Christian Anfinsen因揭示蛋白质的氨基酸序列决定其形状而获得诺贝尔化学奖。然而,预测蛋白质形状一直是科学界未解的难题,尤其是基于其氨基酸序列来推测其折叠成的最终结构。 机器学习的突破 随着DeepMind成立,Demis Hassabis及其团队将AlphaZero等AI技术的成功应用于蛋白质折叠问题,开发出AlphaFold2。该AI可以根据氨基酸序列精确预测蛋白质的3D结构。这一突破不仅解决了长期困扰生物学的难题,还为药物开发和疾病治疗提供了新的可能性。 AlphaFold已经预测了超过2亿种蛋白质的结构,并免费提供给全球科学家使用,加速了生物学、医学和药物研发的进展。 设计新蛋白质抗击疾病 预测蛋白质的形状对设计新药物至关重要。2024年,DeepMind发布了AlphaFold3,不仅能预测蛋白质结构,还能识别小分子药物的结合位点,进一步推动精准药物设计的发展。 与此同时,David Baker及其团队利用AI创造了全新的蛋白质,包括发光酶,展示了机器学习在设计自然界无法进化的功能性蛋白质方面的潜力。 AI推动科学的未来 Hassabis、Jumper和Baker的成就表明,机器学习已经成为生物学和医学的核心工具。通过破解蛋白质折叠难题,他们为药物发现、个性化医疗以及生命化学的深入理解开启了新的篇章。
2024年AI投资热潮:风投押注谁
在2024年第三季度,AI领域的风头依然强劲,风险投资者对这类公司热情不减。根据Crunchbase的数据,AI公司在第三季度总共筹集了189亿美元,占据了整个风投市场的28%。其中,OpenAI的66亿美元融资成为历史上最大的一笔风投交易,2024年也见证了六起超过10亿美元的AI融资事件。 以下是2024年筹集了超过1亿美元融资的美国AI公司: 10月 9月 8月 7月 这些公司反映了AI领域的广泛创新,从法律科技到编程平台,再到芯片开发和电子邮件安全,AI正在持续推动各个行业的变革。
Anthropic的CEO达里奥·阿莫迪(Dario Amodei)文章传达他对AI未来的乐观展望
Anthropic的CEO达里奥·阿莫迪(Dario Amodei)最近发表了一篇长达1.5万字的博客文章,旨在传达他对AI未来的乐观展望,尽管他坚称自己并不是一个AI“末日论者”。在这篇文章中,阿莫迪描绘了一个AI技术已经彻底改变世界、风险得到控制、社会繁荣并走向前所未有的丰裕的未来。 阿莫迪对“强大的AI”持非常乐观的态度,预测这种AI最早可能在2026年问世。他所说的“强大AI”不仅比诺贝尔奖得主在生物学、工程学等领域更聪明,还可以解决未解的数学难题、写出“非常优秀的小说”,甚至控制任何想象中的软件或硬件,从工业机器到实验室设备,都在它的掌控范围内。 尽管他承认AI技术的局限性,当前的AI更多是在重复数据模式,而非真正“思考”,但阿莫迪相信,这些问题将很快得到解决。他设想的未来AI可以治疗几乎所有的传染病、消除癌症、治疗基因缺陷,并阻止阿尔茨海默症的早期发展。他甚至预测,未来5到10年内,AI会帮助治愈PTSD、抑郁症、精神分裂症和成瘾等心理疾病,并有可能通过基因筛查预防这些疾病。他还大胆宣称,AI将使人类的平均寿命达到150岁。 然而,阿莫迪的预测在很多方面似乎过于乐观。AI尚未在医学领域带来根本性变革,而他提到的生物医学突破距离现实仍有很长的路要走。即使AI能够帮助减少研发新药的成本和时间,这些药物在临床试验阶段依然可能失败。更不用说,当前的AI在医疗领域还存在诸多偏见和风险,实际应用起来困难重重。 阿莫迪对AI潜力的乐观态度并未止步于医学领域。他相信AI可以解决全球饥饿问题、扭转气候变化,并在5到10年内将撒哈拉以南非洲的人均GDP提高到中国目前的水平。然而,这些说法很容易让人联想到“奇点”(Singularity)运动的追随者们的论调,尽管阿莫迪也承认这些变化需要全球健康、慈善和政治倡导方面的巨大努力。 他在文章中也提到了AI对社会可能带来的负面影响,比如经济结构的重组,以及可能产生的不平等问题。然而,阿莫迪并没有给出具体的解决方案,而是淡化了AI取代人类工作带来的经济冲击。他认为,即使AI能更好地完成某些任务,人们依然会追求成就感和竞争,比如参与研究、创业或追求演员梦。 总结来看,阿莫迪的文章虽然充满了对未来AI的美好想象,但忽视了当前AI面临的许多现实问题和挑战。尤其是在环境影响、财富不平等以及AI偏见等方面,乐观的预测并没有充分考虑AI技术可能带来的复杂后果。有人可能会质疑这篇文章发布的时机,因为有消息称Anthropic正处于筹集数十亿美元风险投资的关键阶段,类似的情况也曾发生在OpenAI CEO Sam Altman发布乐观宣言后。因此,阿莫迪这篇文章或许不仅仅是对未来的展望,背后也可能有商业动机。
在日本众多的独角兽中,有几家非常值得关注
尽管日本的初创企业领域规模庞大,但在独角兽数量和风险投资规模上,相较于美国、中国和英国,仍显得相对落后。多年来,日本的老龄化问题、经济通缩以及上班族偏向传统大公司的文化,使得创业生活对许多人来说并不具吸引力。 根据国际货币基金组织(IMF)最新发布的报告,引用了CB Insights的数据,截至2023年10月,美国约有661家独角兽公司,中国有172家,英国52家,而日本只有区区7家(PitchBook的数据显示为9家,说明日本的独角兽实际数量可能略高于某些数据集的统计)。 但事情正在有所好转。越来越多的年轻毕业生正在打破传统,选择自主创业,而不是在现有的企业系统中打拼。日本政府也在努力重新吸引人们对本土初创企业的兴趣。 例如,政府在2022年启动的“五年创业发展计划”旨在到2027年创建10万家初创企业,并培育100家独角兽。该计划通过推广孵化器、加强风险基金投资、多元化退出渠道等方式推动初创生态的发展。东京政府今年还推出了“东京创新基地”,为创业者提供共享工作空间、举办网络活动和路演比赛。此外,还有“创业签证”政策,方便风险投资公司、初创企业和加速器在日本落地,并为天使投资人提供特别税收制度。目前日本约有130家加速器,考虑到市场规模,这个数字还算可观。 然而,尽管有这些优势,日本的大部分风险投资仍来自国外。IMF的报告显示,从2010年到2023年,美国投资者占日本初创企业投资的50%,英国占10%,而日本本土投资者只占5%。 例如,Bessemer Venture Partners最近首次投资了一家日本初创企业Dinii,这是一家食品配送公司。Bessemer的Bryan Wu表示,他们曾是美国Toast的主要投资者,并帮助其成长为130亿美元的公司,而他们在Dinii身上看到了类似的成功潜力。 日本的初创企业通常比其他国家的企业更早上市,往往在仅仅几轮融资后就选择IPO,部分原因是东京证券交易所的上市规则相对宽松。因此,预计以下日本独角兽可能会很快上市。 以下是几家值得关注的日本独角兽企业: Spiber融资总额:6.53亿美元最新一轮融资:2024年4月融资6500万美元主要投资者:Baillie Gifford、富达投资、Goldwin、神西漆料等 Spiber的环保生物材料迅速吸引了投资者和客户的关注,广泛应用于时尚、美容和汽车行业。该公司今年4月筹集了6500万美元,计划扩大“酿造蛋白”材料的生产。 SmartNews融资总额:4.79亿美元最新一轮融资:2024年1月的6930万美元主要投资者:Atomico、亚洲资本联盟、日本邮政资本等 SmartNews是一个新闻聚合平台,虽然曾在2021年达到20亿美元的估值,但近年来用户活跃度下降明显。 SmartHR融资总额:3.62亿美元最新一轮融资:2024年6月的1.4亿美元主要投资者:Beenext、KKR、加拿大教师退休基金等 SmartHR提供企业人力资源管理SaaS平台,近年需求强劲,年经常性收入(ARR)在2024年达到1亿美元。 Sakana AI融资总额:3.44亿美元最新一轮融资:2023年9月的2.14亿美元主要投资者:大和生命、富士通、全球大脑等 Sakana AI由前谷歌AI工程师创立,专注于低成本生成式AI模型的训练,吸引了众多关注,尤其是在日本对AI的需求日益增长的背景下。 Preferred Networks融资总额:1.52亿美元最新一轮融资:2018年的810万美元主要投资者:Chugai Pharma、FANUC、丰田等 Preferred Networks专注于为AI设计半导体,并开发深度学习和机器学习模型,应用于机器人、药物发现、自动驾驶等领域。 OPN融资总额:2.22亿美元最新一轮融资:2022年5月的1.2亿美元主要投资者:JIC、MUFG、住友三井银行等 OPN是一家金融科技公司,主要提供移动支付和虚拟卡等服务,客户包括丰田和泰国多家公司。
C level人才招聘
为高管职位选择合适的候选人是组织中最具影响力的决策之一。然而,尽管企业在评估候选人是否胜任时,通常会使用尽职调查的常用工具,其预测能力却和星座占卜的可靠性差不多。企业在招聘方面一再犯错,但却很少反思其方法。尽管在候选人评估的公平性、有效性和可靠性方面有所进步,这些改进却并未有效预测出卓越的工作表现。 每一次的招聘决策都是一种预测,但在选拔领导者时,企业却往往犯下一些可以轻易避免的错误。以下是七个常见的失误: 1. 招聘决策靠运气 一位即将退休的CEO曾与我们分享过他的经验。他的公司依靠有效的产品组合和有限的竞争取得了成功。然而,最近一些新兴竞争对手占据了市场的一部分,公司不得不开始学会攻守兼备。公司急需一位灵活的领导者来应对新局面,但这类人才极为稀缺。CEO自以为很清楚自己想要的,“我只需要一个有力的握手,当我看到对方眼中的坚定时,我就知道合适了!”他这样说道。但一年内,他已经因为职位不适而辞退了两位他曾青睐的CFO候选人。当被问及原因时,他解释说,“他们不胜任这个职位”,尽管这两人都有“有力的握手”和令人印象深刻的表现。这种用直觉做决策的行为在企业中屡见不鲜。 这种极端的例子引发了对自己公司招聘方式的思考:有多少人是因为在面试中“征服”了面试官而被聘用的?面试中有哪些固有的偏见妨碍了客观性? 2. 面对面面试偏爱讨人喜欢的人 企业招聘效率的最大障碍是过度依赖面对面面试,而几乎每家公司都在这么做。面试的有效性取决于其是否有明确的方向、合理的评估标准和有效的提问方式。面试中,候选人的讨人喜欢往往会对他们的评价产生不成比例的影响,然而这种吸引力与他们的实际工作表现无关。如果面对面面试是公司选拔过程中的关键环节,那么不难理解为何公司的员工看起来像是面试官的“朋友”。一个缺乏多样性的公司,只有在认识到其团队的构成反映了面试官所偏好的群体时,才可能在公平代表性方面取得进展。那些真正有能力的人如果无法与面试官融洽相处,将很难被选为领导者。 3. 无结构化面试有效性差 当面试缺乏正式的流程和统一的评价标准时,其弊端尤为突出。每位候选人的面试体验都可能截然不同,因为面试官会随意抛出一些他们认为有助于了解候选人的问题,但这些问题的答案并不能预测候选人的未来表现。即使某些公司试图为面试过程设置结构化模板,这些模板往往也面临两大难题。首先,通常没有权威研究探讨不同回答的预测效果;其次,面试官在解读候选人回答时会引入个人偏见。不同的面试官对同样的回答可能会有不同的解读,从而导致判断失误。 4. 企业误导候选人并损害品牌形象 面对面面试可能会在无意中让一些不太可能被录用的候选人产生希望。为了使候选人在招聘过程中感到被重视,面试往往变成了一场友好、肯定的对话。如果没有设定明确的期望,这可能会误导候选人。这样的处理方式不仅对候选人有害,也会损害公司的招聘品牌。一些公司没有认真对待招聘结果的处理,特别是对那些未成功的候选人。如果在拒绝候选人时处理不当,公司无疑是在逐步削弱其未来的招聘努力。 5. 360度评估主观性强,可能带有偏见 360度评估要求同事、直接下属、工作伙伴或上级对领导者进行一系列特定特质的评分。然而,研究表明,人们在评价他人时会表现出明显的缺陷和偏见,这些偏见不仅无法通过汇总纠正,还会加剧多样性挑战,导致对女性和少数族裔的不公正评估。此外,对于高管而言,360度评估还可能泄露求职意图,从而影响他们的职业安全。 6. 传统猎头公司存在利益冲突 传统猎头公司在员工选拔中扮演着重要角色,尤其是在高管层面。许多猎头公司不仅负责候选人筛选,还进行内部评估并向客户提供建议。然而,这种模式存在一个严重的利益冲突。猎头公司往往为了快速推荐候选人、拿到佣金,然后迅速投入下一个任务中,这使得他们倾向于推销已经在名单上的候选人,而非更合适的新人选。 7. 保密的推荐信不可靠 许多失败的高管在入职前都获得过“美好的推荐”,那么为何他们最终未能胜任?原因很简单:人们并不擅长评估他人,即便是对熟悉的人也是如此。推荐人所提供的反馈通常基于特定环境中的表现,这种表现未必能转化为新公司中的成功。实际上,研究显示推荐信的有效性还不到结构化面试的一半。 解决上述问题需要企业审视自身的招聘流程。许多公司在招聘过程中使用的标准大多是主观的,且没有跟踪其有效性。这导致了与随机挑选无异的结果。 任何公司都可以改进其招聘流程,提高预测能力。有效的选拔过程核心在于通过验证的评估,帮助识别最适合岗位的人才。
Elon Musk 正式揭晓了特斯拉的Robotaxi和Robovan,这两款自动驾驶新车型成为发布会上的焦点
特斯拉备受期待的无人驾驶出租车Robotaxi终于揭开面纱。 在周四晚间的“We, Robot”发布会上,埃隆·马斯克展示了特斯拉即将推出的自动驾驶出租车。这场发布会在加州伯班克华纳兄弟探索电影制片厂的一个场地举行,这个地点让特斯拉得以展示其自动驾驶能力,同时避免了交通带来的突发情况。 马斯克步入会场后登上了一辆造型时尚的银色Robotaxi,这款两门汽车的车门采用了向上开启的蝴蝶门设计。这辆Robotaxi,也被称为Cybercab,带着马斯克绕场地兜了一圈,然后他才下车正式开始活动。 马斯克表示,这款Robotaxi没有方向盘和踏板,也不需要插电充电。取而代之的是,这辆电动汽车依靠感应充电技术,只需驶入充电板上方即可充电。据他透露,特斯拉目前已有至少20辆Cybercab,而此次活动上共有50辆完全自动驾驶的车辆,其中一些已经无人驾驶地在场地内行驶。 他还提到,明年特斯拉将在加州和德州的道路上推出无需监督的完全自动驾驶汽车,包括Model 3和Model Y,而Cybercab则计划在2027年前投入生产。不过,马斯克自己也坦言,他的时间表往往过于乐观,特斯拉的产品发布经常比预期晚。 Cybercab还会对外销售,预计价格低于3万美元。特斯拉还在社交平台X的帖子中透露,Robotaxi服务将免收司机费用,完全自驾的车辆将仅依赖摄像头,而非雷达或激光雷达设备。此外,用户只需叫一次车,就可以无限次使用,无论是短途出行还是全天使用。 不过,马斯克没有分享关于Robotaxi背后技术或安全功能的太多细节。过去,特斯拉的驾驶辅助系统安全性曾引发争议,美国国家公路交通安全管理局的最新报告显示,正在调查数百起涉及Autopilot的车祸,其中29起导致死亡。 在发布会上,特斯拉还展示了一款名为Robovan的大型客车,最多可容纳20人乘坐。同时,马斯克还介绍了人形机器人Optimus,并称其大规模生产后预计售价在2万到3万美元之间,但未透露具体的上市时间。 发布会最后,几台Optimus机器人在灯光秀的伴随下跳起了舞。据马斯克透露,发布会现场布置成了一个“未来世界”,场地分为“TSLA剧场”“纽约”“大都会”和“西部世界”等区域,活动中还有德州烧烤、街头表演和街机游戏等娱乐项目。 此次活动吸引了大量观众,通过X平台进行的直播在某一时刻的观看人数超过了300万。不过,发布会比原定时间晚了将近一小时开始,马斯克解释说,这是因为现场观众中有人突发医疗状况。 Robotaxi的推出对特斯拉来说是一个重要里程碑,尽管此前多次推迟发布。今年8月,原本计划的发布被延期,马斯克在X上发文称,这是因为车辆前部设计进行了“重要更改”,他还表示额外的时间可以让公司“展示更多新东西”。 马斯克一直强调实现完全自动驾驶对特斯拉未来发展的重要性。他曾多次预测自动驾驶技术的落地时间,尽管这些时间表不断推迟,从2017年的洛杉矶到纽约无人驾驶之旅,到2019年宣称2020年将有100万辆Robotaxi上路,再到2023年的预期,但特斯拉的自动驾驶技术依然面临不少挑战和监管审查。 虽然特斯拉的现有车辆具备二级自动驾驶能力,但谷歌旗下的Waymo已经达到了四级自动驾驶技术,在美国部分城市可以实现无人驾驶。一些分析人士预计,真正的全自动Robotaxi还需要几年的时间,特斯拉接下来需要克服的主要障碍是监管部门的审批。