AI领导人将AGI辩论带到了地球
在最近与旧金山的商业领袖的晚餐中,我的评论使房间里放松了。我没有问我的餐饮伴侣我认为的任何非常人造的pas:只是他们是否认为今天的AI有一天可以实现类似人类的智慧(即Agi)或以后。
这是一个比您想象的更具争议性的话题。
在2025年,技术首席执行官不乏提供公牛案例,即Chatgpt和Gemini之类的大型语言模型(LLMS)可以在近期获得人级甚至超级人类的智能。这些高管认为,高度有能力的AI将带来广泛的(并广泛分布)的社会福利。
例如,拟人化的首席执行官达里奥·阿莫迪(Dario Amodei)在一篇文章中写道,异常强大的AI可能会在2026年就可以到达,并且“比最相关的领域中的诺贝尔奖获得者更聪明”。同时,Opena我的首席执行官山姆·奥特曼(Sam Altman)最近声称他的公司知道如何建立“超级智能” AI,并预测它可能会“大幅加速科学发现。”
但是,并不是每个人都发现这些乐观的主张令人信服。
其他AI领导者对当今的LLM可以达到AGI的持怀疑态度 - 超级智能 - 除非一些新颖的创新。这些领导人历史上一直保持低调,但最近有更多的声音。
在本月的一篇文章中,拥抱Face的联合创始人兼首席科学官Thomas Wolf称Amodei愿景的某些部分“充其量是一厢情愿”。沃尔夫(Wolf)在统计和量子物理学方面的博士学位研究中得知,沃尔夫认为诺贝尔奖级别的突破并非来自回答已知问题的问题 - AI擅长的问题 - 而是来自没人想过要问的问题。
。沃尔夫认为,今天的LLM并没有上升到任务。
“我很想在那里看到这个'爱因斯坦模特',但是我们需要深入了解如何到达那里的细节,”沃尔夫在接受TechCrunch时说。 “那是开始变得有趣的地方。”
沃尔夫说他写了这篇文章,因为他觉得对Agi有太多炒作,并且对如何真正到达那里的评估不足。他认为,如事物的立场,AI在不久的将来改变了世界,但没有实现人类水平的智慧或超级智能。
AI世界的大部分内容都被AGI的承诺所吸引。那些不认为这是可能的人经常被标记为“反技术”,或者以其他方式被标记为痛苦和误解。
有些人可能会把这种观点的狼钉为悲观主义者,但沃尔夫认为自己是“知情的乐观主义者” - 一个想在没有AI前进的人失去对现实的掌握。 当然,他不是唯一对技术保守预测的AI领导者。
Google DeepMind首席执行官Demis Hassabis据报道告诉员工,他认为,该行业距离开发AGI可能只有十年的历史了 - 指出AI今天根本无法做到很多任务。 META首席AI科学家Yann Lecun还对LLM的潜力表示怀疑。 Lecun周二在NVIDIA GTC上发表讲话时说,LLM可以实现AGI的想法是“胡说八道”,并呼吁全新的建筑作为超级智能的基石。
肯尼思·斯坦利(Kenneth Stanley)是前OpenAI首席研究员,他是研究如何使用当今模型来构建高级AI的细节的人之一。他现在是Lila Sciences的高管,Lila Sciences是一家新创业公司,筹集了2亿美元的风险投资,通过自动实验室解锁科学创新。
斯坦利花了他的日子试图推动t原始的,来自AI模型的创意,是AI研究的子场,称为开放性。 Lila Sciences旨在创建可以自动化整个科学过程的AI模型,包括第一步 - 提出了最终会导致突破的非常好的问题和假设。
“我希望我写过[狼]的文章,因为这确实反映了我的感受,”斯坦利在接受TechCrunch采访时说。 “ [他]注意到的是,知识渊博和熟练的并不一定会导致真正的原始想法。”
斯坦利认为,创造力是沿着AGI的道路的关键步骤,但指出建立“创意” AI模型更容易说起来做不做。
乐观主义者喜欢Amodei指向AI“推理”模型等方法,这些方法使用更多的计算能力来检查他们的工作并更加一致地正确回答某些问题,以证明AGI ISN’ t非常遥远。斯坦利说,提出原始想法和问题可能需要另一种智慧。
“如果您考虑一下,推理几乎与[创造力]相反,”他补充说。 “推理模型说,‘这是问题的目标,让我们直接朝着这个目标迈进,这基本上阻止了您成为机会主义,并看到了这个目标之外的事物,这样您就可以分散并拥有很多创意。”
> >要设计真正智能的AI模型,Stanley建议我们需要以算法来复制人类的主观品味,以提供有希望的新想法。当今的AI模型在具有清晰的答案(例如数学和编程)的学术领域中表现出色。但是,斯坦利指出,为需要创造力的更主观的任务设计AI模型要困难得多,这不一定具有“正确的&#”8221;回答。
“人们回避科学的主观性 - 这个词几乎是有毒的,”斯坦利说。 “但是没有什么可以阻止我们处理主观性的[算法]。这只是数据流的一部分。”
斯坦利说,他很高兴开放的领域现在受到了更多的关注,Lila Sciences,Google DeepMind和AI创业公司Sakana的专门研究实验室现在正在解决这个问题。他说,他开始看到更多的人谈论AI中的创造力 - 但他认为还有很多工作要做。
Wolf和Lecun可能会同意。如果您愿意的话,请称他们为AI现实主义者:AI领导者对AGI接近AGI和超级智能,并以严重的,扎根于其可行性的问题。他们的目标不是在人工智能领域进步。相反,这是为了启动有关当今AI模型与AGI之间的地位的大型对话 - D超级智能 - 并追随这些阻滞剂。
发布评论