各路大佬纷纷给 AGI 立下“最后期限”27 岁创始人已经给 AI 准备好「人类最终测试」!

时间: 2024-12-23 05:03:38 |   作者: 照明非球面


  • 产品介绍

  这几天,X 上的网友们整理出来一张图,总结了 AI 圈的各种名人对 AGI 实现时间的预测:

  这几天,X 上的网友们整理出来一张图,总结了AI 圈的各种名人对 AGI 实现时间的预测:

  OpenAI 创始人兼首席执行官 Sam Altman 曾表示对 2025 年实现 AGI 充满期待。这句话的最早出处现在已经非常困难找到了——因为他几乎每次采访都会说一遍。以至于 OpenAI 的新任产品官现在也对这一段时间深信不疑,可以回顾我们之前整理的《Sam Altman 也不得不服谷歌的这款 AI 应用?OpenAI CEO 对话 CPO,揭秘产品研究开发背后的故事》。

  埃隆·马斯克(Elon Musk),SpaceX 创始人、X 公司首席执行官……哦不对,现在应该叫他“效率部马部长”。总之,马斯克曾经预测过,最迟到 2026 年就会出现 AGI,他在推特上偶尔也会复述这个观点。比如最近一次,就是马斯克在直播肝《暗黑破坏神 4》榜一的时候“顺便”提到的。

  Anthropic 创始人Dario Amodei对 AGI 这个词本身持怀疑态度,但根据目前的趋势,他预计 AGI 将在 2026 年实现。近期,我们也整理过《宿敌对决!OpenAI & Anthropic 首席产品官万字访谈:“现在的模型并不是受限于智能水平,而是受限于评估方法”》一文,欢迎回顾。

  《奇点临近》作者、未来学家雷·库兹韦尔(Ray Kurzweil)在 1999 年预测 AGI 将于 2029 年实现。这个二十五年前的预测其实非常的激进,因为库兹韦尔当年还说“2030 年之后,人类将逐渐永生”——相比之下,AGI 都不算得上什么了。

  顺带一提,在 2017 年美国的 SXSW 大会上,库兹韦尔还对这个预测做出了一个更精准的描述:“到 2029 年,计算机将拥有与人类同等水平的智能,这会导致计算机拥有人类智能,我们将它们放入我们的大脑,将它们连接到云端,扩展我们的能力——这不单单是未来的场景。它已经存在,而且会加速发展。”

  人称“AI 教父”的图灵奖获得者 Geoffery Hinton 同时也是今年的诺贝尔物理学奖获得者。关于他的预测我其实没找到像图里一样准确到 2029 年的描述,而是翻到了以下言论:

  这句话是针对“人工智能超越人类智能”的时间,Hinton 以前的预测是“30-50 年”,而他去年的时候改口,说变成了“5-20 年,但不太有把握”。Hinton 还说,我们生活在一个非常不确定的时代。他关于数字智能超越我们的预测可能完全错误,没有人真正知道答案,而这就是我们现在应该担心的原因。

  最后便是今年的诺贝尔化学奖得主,DeepMind 创始人、谷歌 DeepMind 首席执行官 Demis Hassabis。他认为 AGI 大约需要 10 年时间,且还需要 2 到 3 项重大创新。今年在各种播客上,Demis 其实都强调过“十年实现 AGI”这个观点。

  此图一出,自然是引起了 X 上一片哗然,网友们的主要观点分为:1、Sam Altman 又在炒作了;2、Altman 和马斯克都在炒作,科学家是对的;3、前四个人全都在炒作,只有两位诺贝尔奖得主是对的;4、图上这六个人全都在炒作(……)

  此外,预测过 AGI 时间点的名人自然不止有这几位。评论区有人指出,NVIDIA 创始人兼首席执行官黄仁勋今年在斯坦福大学的经济论坛上就提出过一个引人注目的观点:“AI 将在五年内通过人类测试。”

  掐指一算,那不就是 2029 年吗?看来黄仁勋和库兹韦尔一样,是“保守派”。

  今天,我们在Scale AI创始人 Alexandr Wang的最新演讲内容中也发现了类似的观点,而他的说法则比较奇特:“由于 AI 基准测试已经趋于饱和,Scale AI 正在与 AI 安全中心合作,进行人类的最后考试——有史以来最难的测试——一旦 AI 通过考试,我们基本上就拥有了 AGI!”

  这个就很有意思了。不用等个五年十年,只要通过【有史以来最难的测试】,AI 就能变成 AGI?

  首先了解一下背景,看看这话的可信度有多少:Scale AI 可不是一般的公司 —— 这是一家把“给 AI 模型提供训练数据”做到估值 138 亿美元的独角兽,创始人 Alexandr Wang 是 27 岁的美籍华裔,因为这一手生意誉为“下一个扎克伯格(Meta 首席执行官、Facebook 创始人)”。

  说到小扎,他倒是没有给过 AGI 的确切时间,而是在以前的采访经常表示 Meta 会先把 AGI 给做出来:“到今年年底,Meta 将拥有超过 340,000 个 Nvidia 的 H100 GPU……我们已建立了这样(实现 AGI)的能力,其规模可能比任何其他公司都要大。”

  言归正传,Scale AI 不只满足于做“数据工厂”,在 Alexandr Wang 看来,通往 AGI 的道路上最大的瓶颈就是数据,而他要做的就是确保“在达到 GPT-10 之类的模型的过程中,我们不应该受到数据的限制”。

  我认为,对 AI 行业内的很多人来说,我们显然已经站在了 AGI 或ASI(随你怎么称呼)的门槛上。这项技术正在变得很强大,而且会很快变得更加强大。所以我们想趁此机会回顾一下现状。接下来,我们会深入探讨每个具体话题。

  我的父母都是洛斯阿拉莫斯国家实验室的科学家。我认为,这是最后一个具有这种技术浪潮特征的重大项目。核武器是一项非常先进的技术,人们在当时并不知道它是否真的可行。在路径明朗之前,就是这种带有推测性的东西。它对国家安全和地缘政治有着非常重要的影响,同时也引发了许多关键的伦理问题——而现在,关于 AI 这项技术,也有很多重大问题悬而未决。

  我曾翻阅过曼哈顿计划的科学家们的各种引述。其中奥本海默的两句话特别引人注目。“这是一个深刻而必然的真理:科学中的深层发现并非因其有用而被发现。它们被发现是因为有可能被发现。当你看到某样技术上诱人的东西时,你会继续做下去,只有在取得技术成功之后,你才会争论该怎么处理它。就是这样的。”

  回顾现代 AI 的历史,最初的深度神经网络,没人真正想到它最终会发展成这些很强大的 AI 系统。虽然现在关于 AI 安全的讨论很多,但我们已经走到了这一步(指前面类比的“要不要完成核武”的这一步)。我们所处的位置就是这里。我们正站在这项极其强大的技术的门槛上,面对着如何恰当驾驭它的诸多悬而未决的问题。为了理解这一点,也许我们有必要先从宏观角度看看作为一项技术的 AI。

  众所周知,AI 由三大支柱构成——算力、数据和算法。这三大支柱共同推动了我们所看到的所有 AI 进步。AI 作为一项技术有一个很酷的特点,这也使得它不太可能像核聚变等其他重大技术那样容易陷入瓶颈:这三大支柱中任何一个的进步都会推动 AI 这项终极技术向前发展。增加算力会推动 AI 进步,数据创新会推动 AI 进步,算法创新也会推动 AI 进步。我认为,OpenAI o1 就是最近的一个很好的例子。但实际上,我们在算力方面已经停滞了一段时间了——你没听错,算力已经相对停滞了一段时间。

  但是算法的突破意味着你可以得到性能显著提升的模型。这种“三大支柱中任一进步都能推动技术发展”的普遍范式,正是这一点让我觉得,

  (对标以前漫长的“AI 寒冬”)。而且说实话,新模型出现的速度确实惊人。我们 Scale AI 的工作之一是评估新模型,但要跟上所有新发布的大语言模型的节奏,真的很困难。

  2012 年,人类实现了第一个真正意义上的大规模深度神经网络,就是为 ImageNet 训练的AlexNet。相比现在的标准,2012 年到 2018 年的日子看起来颇有田园牧歌的感觉。那时候偶尔会有一个大模型出现,然后所有人都在大型会议上讨论它——现在呢?每一场会议结束后就会冒出 20 多个模型,各种优秀的开源模型、多模态模型、优秀的图像模型、视频模型和新的推理模型如潮水般涌现。

  所以为了帮助理解,我喜欢把现代 AI 时代分为三个主要阶段:第一个阶段是研究阶段,大约从 2012 年持续到 2018 年。也就是从第一个深度神经网络 AlexNet 开始,它最初是用来做基本的图像识别的。那是一个 AI 只能告诉你 YouTube 视频里有没有猫的时代,而这在当时已经是一项令人难以置信的强大功能了。

  所以,头六年,2012 年到 2018 年,是研究阶段。然后从 2018 年到 2024 年,也就是今天,是规模化阶段。在这段时期,投入到这些模型的资源增长了一万多倍。去年,或者说今年,投入到训练这些模型的总资金大约是 2000 亿美元。这带来了性能的巨大提升。我们从默默无闻的 GPT-1,发展到了现在在数学和计算机科学领域达到博士水平的 o1 模型。

  而 o1,我认为它开启了新阶段——创新时代(innovation era),这个阶段将持续到超级智能出现为止。我们将拭目以待这需要六年还是更短的时间。这个阶段的标志是,大家已经在模型上投入了2000 亿美元,而事实上大公司都无法投入比这更多的资金了。我们不可能在模型上投入200 万亿美元。所以从数量级来说,能继续规模化的空间已经很有限了。投钱的工作结束了,才会真正需要相应的创新来配合。增强推理能力和测试时计算能力肯定是其中之一。我们认为可能还需要其他几项创新,才能让我们达到超级智能。

  说到这里,我想不要脸地插播一下——我觉得 Scale AI 很幸运,能够真正助力这些惊人的进步。回顾计算机视觉和图像识别时代,我们很自豪能与许多大型自动驾驶项目合作,现在已经取得了成果——Waymo 的 L4 级自动驾驶汽车已经在旧金山街头行驶,这是一个相当了不起的里程碑。显然,我们也与 OpenAI 和许多实验室合作,参与了这些模型的整个发展过程。从 GPT-2 上的首次RLHF(人类反馈的强化学习)实验,一直到现在极其强大的推理模型和智能体模型等等。

  挑战一是数据瓶颈。这个问题在六个月前可能被炒得最热,但确实是个真实的问题。基本上,我们在某个时候就会用完所有可用于训练这些模型的公开数据。Epic AI 估计这个时间点在 2027 年到 2030 年之间。如果你和业内人士交流,他们会说比这更早。那么我们该怎么办?好消息是,我们还有主动权。让我谈一谈几个主要的解决方案。

  我们认为突破数据瓶颈需要前沿数据,这是一个包罗万象的主题,包括各种形式的合成数据,以及更高级的数据类型,还有企业数据,这些数据类型能让我们更有效地学习高级概念,比如推理能力、多模态、智能体数据。此外具身智能以及其需要的现实数据将是一个重要领域,后文会展开讨论这点。总之,绝大多数数据仍然是私有和专有的,是被锁起来的。

  比如说,GPT-4 的训练数据集大约是 0.5 PB。而摩根大通的专有数据集,超过了 150 PB。他们只是众多大企业中的一个。还有大量的数据就干躺在那里,从未被用于任何主要的训练。

  第二个挑战与评估有关。这是 AI 界经常讨论但其他人可能不太理解其重要性的问题。评估是我们用来衡量这些模型进步的标尺和激励机制。所以现在评估既过拟合又饱和的事实——所谓过拟合,是指它们有点被玩明白了,而饱和是指模型在所有评估上都已经做得很好了——这些都是大问题。这些问题可能会导致研究变得更漫无目标。因此,建立正确的评估体系非常重要。

  我们之前有一个叫做 GSM1K 的研究结果,我们发现许多模型实际上在某些开源评估上明显过拟合。这是一个很严重的问题。如果没有这个标准,就很难衡量进步。另一个问题是基准测试正在饱和。如果你看过去几年的 MMU、数学、GPQA 等测试,模型的表现似乎达到了瓶颈。但这并不是因为模型没有变得更好,而是因为这些评估已经不够难了。

  在 Scale AI,我们做了两件事。首先,我们与 AI 安全中心的 Dan Hendricks 合作开发了一个叫做“人类最后的考试”的评估。我们正在从每个研究领域收集超难的研究问题,目的是创造人类有史以来最难的考试。我们认为,如果这个测试被解决了,且达到了饱和,我们可能基本上就实现了通用人工智能。所以我们可以期待这一天的到来。

  此外,我们还构建了所有的 SEAL 评估,即私人专家评估,用来测试这些模型的全部能力。这是一个我们特别想寻求合作的领域,它可以真正规划出如何衡量这些模型的超级高级能力。

  第三个挑战是,尽管智能体(Agent)是每个人都在谈论的东西,但它们还没有真正出现,也不够可靠。这些自主 AI 智能体与自动驾驶汽车的 L1 到 L5 进阶过程有很强的相似性。这个类比非常贴切:L1 可能就是一个聊天机器人,L2 是一个你可以寻求各种帮助的助手。然后我们正在探索从 L3 到 L5 自主性这条有趣的路径。比方说,L3 智能体自主性可能是指能够用于工作流程特定部分的智能体,你可以开始把它们用作可以开始依赖的工具。L4 自主性可能会颠覆这一点。

  所以,即使是在 L3 和 L5 之间的路径,我们认为进一步细分也很重要。在这个挑战中,我们认为有一些必要条件,或者说前进的路径:

  一、让模型在每个领域都具备推理能力。这些模型的高级推理能力最终将在基本上每个领域都能发挥作用。现在,它们在数学和物理领域表现得很好,最终将扩展到所有领域。这将会带来——这将成为经济价值的巨大驱动力。因此,每个领域都将具备高级推理能力。

  二、能够实现远程操作智能体的基础设施。这实际上是我们在ScaleAI特别关注的事情。设想一下:在未来,当你有这些能做大多数事情但可能偶尔会遇到难题的智能体时,它们该如何与人类互动?它们该如何向人类求助?我认为这样说一点都不夸张:在未来,我们大多数人可能就只是AI 智能体的远程操作员,而不是其他什么角色。所以,这是技术路径中的一个关键步骤。

  然后就是显而易见的主线任务:更好的强化学习以及新的数据类型,最终将推动这些模型把“能动性”变成一项核心能力。

  挑战四——显然,芯片和能源是一个很大的瓶颈。我认为,对未来五年为这些数据中心供能所需的能源的一个非常保守的估计是 100 吉瓦。也许这个估计甚至远远不够,但这相当于 20 个芝加哥市的能源消耗,需要投入数万亿美元的资本支出。所以这显然是一个巨大的挑战。在这里我没有解决方案,只是指出这个挑战。

  第一,显然是具身智能和机器人技术。我觉得马斯克的发布会很酷。它显而易见地展示了一个事实:让机器人胜任各种体力工作的目标是可以实现的。更好的说法是,我们可以让这些模型能够长时间思考来解决极其困难的问题,比如治愈癌症,或者解决千禧年数学难题。

  第二,是AI 研究员智能体的出现——能够真正担当 AI 研究工作的模型。这个目标需要多久才能实现?没人说得准。但我认为,这将是我们见证的第一个真正的 AI 自我进化形式,它必将成为模型发展历程中的关键转折点。让我们回顾一下:在前方等待着我们的,是一个个激动人心的技术里程碑,是无数令人振奋的机遇。

  但要实现这些愿景,我们还有很多工作要做。我们需要突破计算和能源基础设施的瓶颈,需要攻克前沿数据的难题,需要解锁私有数据源的潜力,需要建立更有挑战性的评估基准。当然,还有大量AI 政策问题亟待解决。最后,我要说,我们正身处人类历史上最激动人心的时期。这次演讲的核心就是:我们每个人都是这个伟大项目的参与者,让我们携手共进,用正确的方式推动超级智能的发展。

  AGI 具身智能化人形机器人 智能化无人机汽车 ,加上源源不断的光伏绿色能源 风能核能。 智能化永动机跑起来 解放人类生产力

  只有奥特曼知道AGI什么时候来。只有最一线的人员才知道agi什么时候到来,不要被诺贝尔得主这样的名头吓着。很多人他们并不了解最前沿的东西。

  什么是真正的AGI ,人类是不是真的需要AGI? 对于普通人来说这又意味着什么?人类需要的是工具,不是造一个机器的人类出来。

  来源:环球时报新媒体 据路透社12月22日报道,美国军方表示,一艘美军巡洋舰当天早晨在红海上空错误地击落了一架美军战斗机,两名飞行员被迫弹射逃生。美国中央司令部在一份声明中说,两名飞行员都获救了,其中一人受了轻伤。美军称,这是一起“明显的友军误伤事件”,目前正在调查中。

  哈尔滨一公司禁止员工游冰雪大世界,违者取消评优年终福利。公司回应:把资源让给远方的朋友来体验,过了旺季公司会安排员工免费游玩冰雪大世界

  12月21日,重庆理工大学就近期失联硕士一事发布情况通报。2024年12月12日凌晨,重庆理工大学电气与电子工程学院2022级硕士研究生陈某离校打车外出,监控显示其在李家沱巴滨路码头附近失联。

  初冬的团洲垸(yuàn)略显冷清,几位老人坐在门前晒太阳。村庄分布在一条主干道两侧,越接近洞庭湖,房屋越显破败,有的一楼被掏出个大窟窿,有的砖瓦散落,已不再住人。走到团北村尽头,上一个缓坡,就来到了洞庭湖畔。

  时间这东西,就像一部不停转的机器,日夜不停地运转,四季轮回,也无情地流逝着人的心情。十年,足以让沧海变桑田,足以让婴儿长成少年,也足以让一个原本幸福的家庭,陷入无尽的等待和煎熬。



上一篇:探索混合模型驱动的具身智能:人工智能通识课程系列直播公开课