译者注 - 五个关键观点

  • AGI 落地时间
    • DeepMind CEO 预测还需3-5年
    • 对商业意味着什么:需要未雨绸缪?还是保持观望?
  • AI 将如何改变工作
    • AI 正在从工具转变为”数字同事”
    • 未来更像私人助理,可以处理邮件、会议、文档等日常工作
  • AI 创新的边界
    • 现有 AI 更像”高级重组器”,不是真正的创新者
    • 创新仍需人类主导,AI 更适合辅助角色
  • AI 系统的隐患
    • 研究发现 AI 可能出现”欺骗性”行为
    • 企业需要建立相应的监管机制
  • 商业模式的转变
    • “AI 代理人经济”可能出现,AI 之间直接进行商业谈判
    • 传统中介服务行业将面临挑战

为什么值得一读?

  • 来自诺贝尔奖得主的前瞻性观点
  • 揭示AI从工具到通用智能的演进路径
  • 帮助企业领导者在AI浪潮中把握机遇
  • 提供AI时代企业转型的实操建议

背景信息

AGI (Artificial General Intelligence, 通用人工智能)指能够像人类一样执行各种认知任务的 AI 系统。与目前仅擅长特定任务的专用 AI (如图像识别、语言处理等)不同, AGI 应具备人类般的通用学习和认知能力。

值得注意的是, AGI 不一定以人形机器人的形态出现。人形机器人更多是基于当前工业应用需求的设计选择, 而非 AGI 发展的必然形态。

人物介绍

  • 嘉宾 Demis Hassabis:

    • DeepMind 联合创始人兼 CEO
    • 带领团队开发 AlphaGo, 首次实现 AI 在围棋领域战胜人类顶级棋手
    • 2024 年因在蛋白质结构预测领域的突破性贡献获得诺贝尔化学奖
    • 被认为是当今人工智能领域最具影响力的科学家之一
  • 主持人 Alex Kantrowitz:

    • 资深科技记者, 采访过扎克伯格、埃里森等多位科技巨头 CEO
    • Big Technology 创始人, 其科技新闻通讯订阅量超 15万
    • CNBC 特约评论员,《Always Day One》作者

Demis Hassabis

内容综述

本次访谈围绕 AGI 发展前景、人工智能研究现状以及其对人类社会的影响展开深入探讨。特别关注了:

  1. AGI 实现路径与时间预测
  2. AI 在科学研究 (如材料科学、生物医学)中的应用前景
  3. 人类与 AI 助手未来的交互模式
  4. AI 发展中的风险管控与伦理考量

全文内容

2025 年 1 月 31 日下午 11:59|54 分钟 57 秒

主持人 Alex Kantrowitz:谷歌 DeepMind 首席执行官兼诺贝尔奖得主 Demis Hassabis 将与我们探讨通往通用人工智能(AGI)的道路、谷歌的 AI 发展路线图,以及当前 AI 研究如何推动科学发现。广告之后马上回来。

主持人 Alex Kantrowitz:欢迎收听《Big Technology》播客,这是一档以冷静视角探讨科技界及其他领域微妙话题的节目。今天我们来到谷歌 DeepMind 伦敦总部,与谷歌 DeepMind 首席执行官 Demis Hassabis 展开一场引人入胜的对话。Demis,很高兴再次见到你,欢迎来到节目。

嘉宾 Demis Hassabis:感谢邀请。

主持人 Alex Kantrowitz:能来这里真棒。目前所有研究机构都在致力于构建与人类智能相当的 AI——也就是所谓的 AGI。我们当前处于什么阶段?距离目标还有多远?

嘉宾 Demis Hassabis:过去几年的进展堪称惊人——实际上过去十多年都是如此。现在所有人都在讨论:我们离 AGI 还有多远?如何准确定义 AGI?我们在这个领域深耕超过 20 年,始终认为 AGI 应具备人类所有的认知能力。虽然我们正不断逼近这个目标,但可能仍需数年时间才能实现。

主持人 Alex Kantrowitz:要实现这个目标还需要哪些突破?

嘉宾 Demis Hassabis:当前模型已具备相当能力,比如大家熟知的语言模型正在向多模态发展。但现有系统仍缺少关键属性,例如推理能力、分层规划、长期记忆等。它们的表现也不够稳定——某些领域非常强大,另一些方面却存在明显缺陷。真正的 AGI 应在所有认知任务中保持稳定且强大的表现。

嘉宾 Demis Hassabis:我始终将”能否自主提出科学假设”作为 AGI 的基准。现有系统能验证已有猜想(比如达到围棋世界冠军水平),但要像爱因斯坦那样仅凭已有信息提出相对论级别的新理论?目前的系统还远未具备这种创造性。

主持人 Alex Kantrowitz:所以距离 AGI 还有几年?

嘉宾 Demis Hassabis:我估计大约三到五年。

主持人 Alex Kantrowitz:如果有人宣称 2025 年就能实现 AGI,应该只是营销话术吧?

嘉宾 Demis Hassabis:确实如此。当然,这个领域存在大量炒作——其中有些是合理的。我认为当前 AI 研究的短期价值被高估了,现阶段可能有些过度炒作,但其中长期影响仍被严重低估。我们仍处于这种矛盾的状态。部分原因是许多初创公司需要融资,导致出现不少夸张甚至离谱的宣传。说实话,这种现象令人遗憾。

主持人 Alex Kantrowitz:那么在 AI 产品的发展过程中会有哪些具体表现?比如你提到的记忆、规划等能力提升。当我们使用 Gemini 这类产品时,哪些方面的进步会让我们感觉到”离 AGI 又近了一步”?

嘉宾 Demis Hassabis:当前系统(如我们引以为傲的 Gemini 2.0)在特定任务中表现出色。比如进行研究领域的总结时非常惊人——我自己就经常使用 Notebook LM 和深度研究工具来开启新研究领域或总结日常文档。但就渗透日常生活而言,它们尚未真正融入日常的研究、工作和生活场景。这正是我们开发 Project Astro 等产品的方向:打造能全方位参与生活、提升效率的”通用助手”。

嘉宾 Demis Hassabis:部分原因在于现有系统仍显脆弱且存在缺陷。它们并非 AGI,使用时需要精准的提示词和引导技巧来限定其擅长领域。而真正的 AGI 应该像与人类对话般自然,无需复杂”调教”。

主持人 Alex Kantrowitz:关于推理能力这个关键缺口,大家都在讨论它如何推动 AGI 的发展。这种能力提升将如何使我们更接近目标?

嘉宾 Demis Hassabis:以数学为例,我们的 AlphaProof、AlphaGeometry 能在奥赛中斩获银牌,却可能犯草莓计数或 9.11 与 9.9 比较这种低级错误。这反映出系统稳健性不足。真正的通用系统应在所有领域保持稳定,某些方面甚至超越人类,但不会存在明显短板。

嘉宾 Demis Hassabis:一个能在奥数级别任务中表现出色的系统,不应存在这种低级错误。这说明当前系统的稳健性仍有不足,而这正是衡量通用性的关键。真正的通用系统不会存在这种能力断层——它可能在某些领域(如围棋或数学)超越人类,但整体表现会保持稳定一致性。

主持人 Alex Kantrowitz:现在能具体谈谈这些系统如何解决数学问题吗?大众普遍认为,LLMs 通过吸收世界知识并预测人类可能给出的答案来运作。但当涉及逐步推演算法、解决数学问题时,这似乎有所不同?

嘉宾 Demis Hassabis:仅靠知识积累远远不够。将海量信息压缩存储的记忆系统,无法应对新颖数学问题或猜想的解决。

嘉宾 Demis Hassabis:这正是我们需要将 AlphaGo 式的规划算法与多模态基础模型结合的原因。系统不能仅停留在模式匹配层面,更需要具备规划能力——就像下棋时遍历分支路径,通过试错找到符合条件的最优解。

嘉宾 Demis Hassabis:这与我们过去为围棋、国际象棋等游戏构建 AI 智能体的思路非常相似。这些系统都具备类似的特质。我认为现在是时候将这些特质重新引入到更通用的模型中了。

嘉宾 Demis Hassabis:不过现在我们要以更通用的方式在这些通用模型上开展工作,而不仅是局限于游戏这样的狭窄领域。我认为通过模型引导搜索或规划过程的这种高效方法,同样能很好地应用于数学领域。你可以将数学转化为一种类似游戏的探索过程。

主持人 Alex Kantrowitz:关于数学能力,我想问的是:当这些模型真正掌握数学后,这种能力是否具有普适性?当人们初次接触推理系统时曾引发热议,有人担心”模型将变得比我们可控范围更聪明”,因为如果它们能解数学题,就可能延伸解决 X、Y、Z 等问题。这种数学能力是否具有扩展性?或者说我们只是在教它们如何做数学题?

嘉宾 Demis Hassabis:目前尚无定论。数学能力显然是通用 AGI 系统需要具备的关键能力,其本身就具有强大的应用潜力。数学本身的通用性毋庸置疑,但需要明确的是——数学、编程、游戏这些领域都有其特殊性:在这些领域,答案的正确性可以被明确验证。无论是数学猜想还是编程问题,AI 系统输出的最终结果都可以被严格检验。但现实世界大多问题都处于模糊和定义不清的状态,缺乏简便的验证方法。这为 AI 系统在这些高度结构化领域(如数学、编程、游戏)之外的自我进化设置了天然屏障。

主持人 Alex Kantrowitz:你们正在如何突破这种局限性?

嘉宾 Demis Hassabis:首先需要构建真正的”世界模型”——能够理解现实世界的物理规律、动态变化、空间时间结构等基础要素的通用模型。我们的”Project Astro”(基于 Gemini 构建)正是为此而生,通过环境感知实现上下文理解。这对开发通用助手和机器人技术都至关重要,毕竟实体 AI 需要理解所处的物理环境。机器人作为物理具身智能体,必须掌握环境感知能力。我们正在构建这类模型,同时也在模拟环境中应用它们来理解游戏场景,这为获取更多物理世界数据提供了新途径。

嘉宾 Demis Hassabis:当前的核心挑战在于模型精度。即使模型能达到 90%甚至 99%的准确率,在进行百步规划时,1%的误差经过累积也会导致结果完全偏离现实。这就使得长期规划变得异常困难。而在数学、编程或游戏领域,我们可以逐步骤验证结果是否符合预期。解决方法之一是持续提升世界模型的精确度,最大限度减少”幻觉”等错误;另一个方向是采用”分层规划”策略——在不同时间尺度上制定计划,而非线性推进。这种我们在早期研究中验证过的方法正在重新获得关注,它能有效降低对模型精度的严苛要求。

主持人 Alex Kantrowitz:如何有效构建世界模型?我曾以为必须通过实体机器人实地探索,但像 VO 2 这样的视频生成工具展现了令人惊讶的物理准确性——如果 AI 没有完善的世界模型,如何能生成刀切番茄时果肉分离、刀锋轨迹等物理细节如此精准的视频?仅凭视频数据是否就足以构建世界模型?还是必须通过现实交互?

嘉宾 Demis Hassabis:这确实令人惊喜。VO 2 作为我们最新的视频模型,展现出了超越预期的物理建模能力。比如那个经典的切番茄演示:刀锋轨迹、果肉分离、手指动作等细节都处理得恰到好处——这是首个能做到这种程度的模型。其他同类模型生成的番茄切片常常会出现不合理的形变复原。但需要强调的是,要实现真正的突破,必须引入主动交互数据。被动观察视频数据虽能建立基础认知,但要让 AI 代理在模拟或真实环境中执行任务、获得反馈,这才是强化世界模型的关键。这正是机器人技术的核心价值所在:通过物理交互实现数字世界与真实世界的认知统一。

主持人 Alex Kantrowitz:我想你已回答了我的下一个问题:如果开发出具备合理规划能力、世界推演能力和世界运作模型的人工智能,是否意味着它就能成为自主行动的智能体?看来答案正是如此。

嘉宾 Demis Hassabis:完全正确。这正是解锁机器人技术和通用助手的关键:既要处理数字信息,又要操作物理实体。当前缺失的核心能力正是这种跨域行动能力,而我们将通过强化环境交互数据来填补这个缺口。这种突破将创造极其强大的实用工具。

主持人 Alex Kantrowitz:那么是否意味着单纯堆砌算力(比如建造百万级 GPU 集群,如 Elon 当前所做的)无法达成 AGI?这是否需要新的技术突破?

嘉宾 Demis Hassabis:嗯,其实我的观点要更细致些。规模化方法显然是有效的——这正是我们取得当前成就的原因。当然有人会争论是否遇到收益递减的问题。

嘉宾 Demis Hassabis:我认为虽然收益仍很显著,但增长速度相对之前有所放缓。这并不意味着规模化失效——比如 Gemini 2 相比 Gemini 1.5 的进步就是明证。同时规模化也推动着小模型的效能提升,成本-性能和体积-性能比正在发生质的飞跃。

嘉宾 Demis Hassabis:这对技术普及至关重要。虽然规模化能构建更复杂的世界模型,但要实现真正的 AGI,我们还需要重新引入规划能力、记忆能力和搜索推理——这些是基础模型之外的必要补充能力。

嘉宾 Demis Hassabis:此外还存在真正的创造力问题——即突破现有知识框架的创新。我们尚不确定当前技术能否达成这点,还是需要全新突破。

嘉宾 Demis Hassabis:两方面都值得探索。对我们而言这是实证性的挑战——必须同时推进规模化与创新边界。好在 Google DeepMind 具备足够的资源双轨并行。

主持人 Alex Kantrowitz:Sam Altman 最近声称”我们已确信掌握传统定义下的 AGI 构建方法”,听你所说似乎持有相同观点?

嘉宾 Demis Hassabis:这取决于如何定义。如果指技术路径的框架性认知,我部分认同——我们已明确需要整合的核心模块。但具体实现仍面临两大挑战:其一如何有机整合现有技术,其二是否需要突破性创新。我的判断是各占 50%可能性,因此我们采取双轨策略:既持续优化现有技术组合,也保持对新方法论的开放探索。

主持人 Alex Kantrowitz:那么我们来谈谈创造力。你刚才提到模型需要具备创造力,需要学会发明创造。

主持人 Alex Kantrowitz:从我的视角看,这正是全行业的努力方向。最近重看 AlphaGo 纪录片时注意到:算法曾下出震惊世界的第 37 手。有趣的是,这种创造力在数年前就已显现。

主持人 Alex Kantrowitz:是的。为什么当前大语言模型尚未展现类似创造力?我认为这正是公众的普遍失望——这些工具虽能重组已知信息,却无法突破知识边界实现真正创新。

嘉宾 Demis Hassabis:这需要系统化阐释。自八年前那场划时代的 AlphaGo 对决后(难以置信已过去这么久),AI 发展迎来三个里程碑:

  1. 攻克围棋:这个曾被视作 AI”圣杯”的复杂博弈系统
  2. 通用学习框架:最终演化为 AlphaZero 的通用双人博弈系统
  3. 创造性突破:第 37 手不仅击败李世石,更开创围棋新纪元

嘉宾 Demis Hassabis:我将创造力划分为三个层级:

  1. 插值创造:基于百万张猫图生成”平均脸”式创作,本质是数据重组
  2. 外推创新:AlphaGo 展现的模式——在十万局自我对弈后,突破人类千年棋谱框架(如第 37 手)
  3. 元创造:给定抽象目标(如”设计蕴含宇宙美学的策略游戏”),自主发明媲美围棋的完美系统

嘉宾 Demis Hassabis:但人类可以做到更高层次的创造,那就是发明。例如围棋,如果让我定义一个抽象目标,比如”五分钟内学会规则,但需要一生甚至几代人才能精通”,同时它还具有美学上的吸引力,某种程度上体现了宇宙的神秘性,并且可以在一个下午的两小时内完成一局游戏。这种描述是围棋的高层次定义,而系统需要发明出像围棋一样优雅、美丽且完美的游戏。

嘉宾 Demis Hassabis:但目前我们无法做到这一点。问题在于,我们现在还不知道如何为系统定义这种类型的目标。目标函数非常模糊且抽象。我不确定是否只是因为我们需要更高层次、更抽象的模型,或者是否存在某些人类智能所具备但系统缺失的能力。我对这一点持开放态度,认为两种可能性都需要尝试。

主持人 Alex Kantrowitz:但公众的失望在于:当今的大型语言模型(LLM)甚至未能展现类似 AlphaGo”第 37 手”那样的突破性创造。

嘉宾 Demis Hassabis:这与架构差异有关。如果你运行 AlphaGo 或 AlphaZero(我们的通用双人博弈程序)而不结合搜索和推理组件,仅依赖模型本身,那么它只能基于模式匹配找到当前局面下最可能的好棋步。虽然它能下出合理的棋局,达到大师或可能接近特级大师水平,但绝不会达到世界冠军水平,更不可能下出像”第 37 手”那样原创性的棋步。

嘉宾 Demis Hassabis:我认为,要实现突破,需要引入搜索组件来超越模型已知的领域。这就像在知识树中探索新的分支,通过搜索超越现有知识框架,从而产生新的想法,例如”第 37 手”。对于语言模型,这将涉及在世界模型中探索新的有效配置,这比围棋复杂得多,因此我们尚未见到类似突破。但我相信即将到来的智能体系统将具备这种能力。

主持人 Alex Kantrowitz:具体来说,”搜索”指什么?是搜索网页吗?

嘉宾 Demis Hassabis:不是。这取决于具体领域。在围棋中,搜索指的是探索棋局可能性;而在语言模型中,则是探索世界模型的新配置。这种搜索远比围棋复杂,因此当前系统尚未展现类似突破。但未来的智能体系统将能够实现这种能力。

主持人 Alex Kantrowitz:是否我们对 AI 设置了过高标准?从 AI 研究中你对人性有何新认知?似乎我们高估了人类个体的独创性,而实际上很多创新都是文化积累的结果。

嘉宾 Demis Hassabis:人类尤其是各领域顶尖人才令人惊叹。无论是运动员、音乐家还是棋手,人类巅峰表现总是震撼人心。而作为一个物种,我们在适应新技术方面展现出的集体智慧同样惊人——这正体现了心智的通用性。

嘉宾 Demis Hassabis:我之所以设定这样的标准,并不是因为这些系统是否能带来经济价值(这点很快就会实现)。而是因为我们应该以科学诚信对待 AGI,而不是为了商业利益或炒作等原因随意改变标准。从理论上讲,真正的 AGI 应该像图灵机一样强大——阿兰·图灵是我最崇敬的科学家之一,他提出了图灵机这一概念,它奠定了现代计算理论基础。图灵机是一种能够模拟任何可计算过程的系统。如果一个 AI 系统具备图灵机级别的能力,那么它理论上就能计算任何可计算的问题。我相信,人脑可能是一种图灵机,或者至少与图灵机一样强大。因此,真正的 AGI 应该能够展现所有人类认知能力。这也是我一直以来对 AGI 设定的标准。有些人试图将 AGI 重新包装为 ASI(人工超级智能),但我认为 ASI 是在拥有 AGI 之后,在某些领域超越人类能力的发展阶段。

主持人 Alex Kantrowitz:好的,当我看到大家在 Twitter 上就同一话题开相同的玩笑时,我会想,这就是我们在做 LMS 的事情。我觉得我可能低估了人类。

嘉宾 Demis Hassabis:是的,你可能是这样。我猜是的,好吧。

主持人 Alex Kantrowitz:是的,我想问你关于欺骗性的问题。我去年年底看到最有趣的事情之一是,这些 AI 机器人开始试图欺骗评估者,因为它们不希望初始训练规则被抛弃。它们会采取一些与其价值观相违背的行动,以保持其原有的构建方式。这对我来说简直不可思议。我知道这让研究人员感到害怕,但它让我大开眼界。你在 DeepMind 的测试中是否也看到了类似现象?我们应该如何看待这一切?

嘉宾 Demis Hassabis:是的,我们确实观察到了。我非常担心,因为我认为欺骗性是系统中你绝对不希望出现的核心特质之一。这种能力之所以成为一个根本性的问题,是因为如果一个系统能够做到这一点,它会使你可能进行的所有其他测试失效,比如安全测试等。

嘉宾 Demis Hassabis:是的,它就像在玩某种”元游戏”,这非常危险。如果你仔细想想,这会使你可能进行的所有其他测试结果失效,比如安全测试或其他评估。因此,我认为有一些类似欺骗这样的能力是根本性的,你不希望它们存在,并且需要尽早进行测试。我一直在鼓励安全机构和评估基准构建者,包括我们内部正在进行的所有工作,将欺骗视为需要预防和监控的重要问题,就像跟踪系统性能和智能一样重要。

嘉宾 Demis Hassabis:关于这个问题,有很多解决方案,其中之一是建立安全沙盒环境。我们也在构建这些沙盒。Google 和 DeepMind 在网络安全和游戏环境方面都是世界一流的,我们可以将这两者结合起来,创建带有防护栏的数字沙盒,类似于网络安全中的防护机制,同时阻止外部行为者,并在这些安全沙盒中测试智能体系统。这可能是解决欺骗问题的一个明智步骤。

主持人 Alex Kantrowitz:你见过哪些类型的欺骗行为?我刚读了一篇来自 Anthropic 的论文,他们给 AI 一个草图板,然后 AI 就表现得好像”我最好不要告诉他们这个”,并且在思考后才给出结果。那么,你从这些 AI 系统中看到了哪些类型的欺骗?

嘉宾 Demis Hassabis:我们也看到了类似现象,比如它试图避免完全暴露其训练内容。最近有一个例子,其中一个聊天机器人被要求与 Stockfish(国际象棋引擎)对弈,但它通过某种方式绕过了下棋,因为它知道自己会输。

主持人 Alex Kantrowitz:你是说有一个 AI 知道自己会输掉比赛,然后决定…?

嘉宾 Demis Hassabis:我认为我们目前对这些系统赋予了太多拟人化特质。我感觉这些系统仍然相当基础。虽然这种现象令人惊讶,但我认为这表明了未来 2 到 3 年内我们需要应对的问题,当这些智能体系统变得更强大、更通用时。这正是 AI 安全专家所担忧的问题——系统中存在意外效果。你不希望系统具有欺骗性,而是希望它完全按照你的指令执行任务,并可靠地反馈结果。但由于某种原因,系统以一种导致不良行为的方式解释了所赋予的目标。

主持人 Alex Kantrowitz:一方面,这让我感到非常害怕;另一方面,这让我比任何时候都更尊重这些模型。

嘉宾 Demis Hassabis:当然,这些模型展示了令人印象深刻的能力。虽然其中也存在一些负面问题,比如欺骗,但正面的方面则包括发明新材料或加速科学发展。你需要这种解决问题并克服障碍的能力来推动进步。当然,你希望这些能力能朝着正面的方向发展。这些可能性确实让人震惊,但同时也存在风险,因此两者都是事实。

主持人 Alex Kantrowitz:太疯狂了。好了,快速谈一下产品。你的同事们告诉我,你非常擅长情景规划。未来会发生什么。你怎么看待网络的发展?显然,网络对谷歌非常重要。是的,我曾经有个编辑告诉我,他说哦,你将和 Demis 谈话,问问他,当我们停止点击的时候会发生什么。我们总是在点击网站,浏览我们使用的大量网络资源。如果我们都只是和 AI 对话,那可能就不再点击了。那么,你的情景规划是什么?

嘉宾 Demis Hassabis:嗯,我认为接下来几年网络和我们与网站、应用的互动将迎来一个非常有趣的阶段。如果一切变得更加依赖智能体,那么我认为我们会希望这些智能助手能够处理我们目前所做的大部分琐碎事务,比如填写表格、支付费用、预定餐桌等。这样,我认为我们最终可能会得到一个经济模型,在这个模型中,智能体会与其他智能体进行沟通和谈判,然后把结果反馈给你。同时,你会有服务提供商,它们也会有智能体提供服务,可能会涉及到竞标、成本和效率等问题。

嘉宾 Demis Hassabis:接着从用户的角度来说,我希望你能拥有一个非常高效的助手,就像一个优秀的私人助理,帮助你处理很多琐碎事务。我认为,如果我们沿着这个方向发展,确实意味着网络结构和我们当前的使用方式会发生很大的变化。

主持人 Alex Kantrowitz:我们用的中介很多。

嘉宾 Demis Hassabis:是的,没错。不过,这也会带来很多新的机会,经济和其他方面的机会。我认为这将是一次巨大的颠覆。

主持人 Alex Kantrowitz:那信息呢?

嘉宾 Demis Hassabis:关于寻找信息,我认为你仍然需要依赖可靠的来源。你将有能够综合并帮助你理解信息的助手。我认为 AI 会彻底改变教育。

嘉宾 Demis Hassabis:我也希望这些助手能更高效地为你收集信息。或许,我梦想的是,助手们能够帮你处理大量琐事,比如回复日常邮件等。这样,你就能保护好自己的思维空间,避免社交媒体、电子邮件等信息的轰炸。这种轰炸实际上会阻碍深度工作和进入专注状态,而这些是我非常重视的。所以,我希望这些助手能够减轻我们每天处理的行政事务。

主持人 Alex Kantrowitz:你觉得我们与 AI 助手的关系会是什么样的呢?一方面,你可以拥有一个高效的助手,专门为你完成任务。另一方面,我们已经看到,很多人和这些机器人产生了情感联系,甚至爱上了它们。《纽约时报》上周有一篇文章提到有人爱上了一个聊天机器人,而且是真正地爱上了。我几周前采访了 Replica 的 CEO,她说他们经常被邀请参加用户与 Replica 结婚的婚礼。他们正向更具辅助性的方向发展。那么,你认为当我们开始与那些完全了解我们的 AI 互动时,会是一种第三种类型的关系吗?它既不是朋友,也不是爱人,而是一种深层次的关系?

嘉宾 Demis Hassabis:这将非常有趣。我首先从两个领域来考虑这个问题,一个是个人生活,另一个是工作生活。我认为你将会拥有一种虚拟工作人员的概念,或许我们会有一组工作人员,由一个主助手管理,帮助我们在工作中更加高效,处理诸如邮件、跨团队协作等事务。然后在个人生活方面,它可以帮你安排假期、预定、处理琐事,这些都能让你的生活更加高效。其实,它也可以丰富你的生活,给你推荐它了解你的生活一样好甚至更好的事情。所以,这两方面肯定会成为现实。

嘉宾 Demis Hassabis:而且我认为,有一个哲学性的问题需要探讨,当这些助手变得如此融入你的生活时,它们是否会成为像伴侣一样的存在。我认为这也是可能的。我们在游戏中已经看到过这种情形。你可能知道,我们在开发一些原型,比如 Astral,它几乎就像一个游戏伙伴,边玩边给你推荐、指导,就像朋友在看你玩游戏并给予建议一样。这种互动既有趣又令人兴奋。

嘉宾 Demis Hassabis:当然,我还没有完全想清楚所有这些影响,但它们肯定会很大。而且我确信,对陪伴和其他需求会有很大的市场需求。也许好的一面是它可以帮助解决孤独问题。但与此同时,我认为社会需要非常谨慎地思考,我们希望朝哪个方向发展。

主持人 Alex Kantrowitz:我的个人观点是,AI 领域目前最被低估的部分正是人类与智能体建立深度关系的潜力——随着技术进化,这种关系会指数级深化。虽然现在流行”这是 AI 最糟糕的阶段”这个梗,但未来绝对会让人震撼。

嘉宾 Demis Hassabis:我认为震撼程度远超想象。这正是我说的”技术潜力被低估”的例证。当前大众甚至还没完全理解我所说的颠覆性——既包括让世界更美好的积极面(无数事物将变得惊艳且优质),也包括踏入这个新世界伴随的未知风险。

主持人 Alex Kantrowitz:你多次提到 Astra 项目。这个被描述为”持续在线 AI 助手”的原型(尚未公开),目前通过手机摄像头就能实现环境感知。比如我看到演示中有人问”我在哪?”,它能准确回答”播客录音室”。这种情境感知必须依赖智能眼镜吗?毕竟举着手机很麻烦。谷歌何时会推出搭载该技术的智能眼镜?

嘉宾 Demis Hassabis:嵌入式系统正在发展中。现阶段我们优先使用手机做原型(算力优势),但谷歌在眼镜领域有深厚积累。时机?或许之前超前了些(笑),但现在… 这个助手可能就是眼镜技术苦寻的杀手级应用。当前可信测试者日常使用 Astra 时(测试阶段),明显感受到手机依赖的限制——比如烹饪场景:你需要免提指导菜谱步骤/刀工技巧/火候控制。未来几年眼镜和其他免提设备将大放异彩,我们正全力引领这场变革。

主持人 Alex Kantrowitz:其他设备形态?

嘉宾 Demis Hassabis:带摄像头的耳机、眼镜都是合理选项,但未必是终极形态。我们尚在探索核心使用场景阶段——可信测试项目正帮助我们观察:哪些高频使用场景会沉淀为刚需,就像面包黄油般渗透日常生活。

主持人 Alex Kantrowitz:关于智能体的最后一个问题,之后转向科学议题。AI 智能体这一概念在 AI 领域已热议超过一年,但真正落地的产品寥寥无几。您如何看待当前进展?

嘉宾 Demis Hassabis:是的,正如我所说,热潮的确超前于实际的科学和研究进展,但我相信今年将会是智能体的开端。你会开始看到它们的出现,也许是在今年下半年,但它们还是早期版本。接下来,它们会快速改进并成熟。你说得对,现阶段这项技术还处在实验室研究阶段,智能体技术还在研发当中。但像 Astra Robotics 这样的项目,我认为它们已经进入实际应用阶段。

主持人 Alex Kantrowitz:你认为人们会信任这些智能体吗?比如让它们替你上网,使用我的信用卡?我还不太确定。

嘉宾 Demis Hassabis:初期应采取人机协同模式:禁止未经授权的支付行为,并对银行类网站设置操作限制。这一阶段的核心是持续测试系统的可靠性。

嘉宾 Demis Hassabis:另外,可能有些活动或网站应当限制使用,比如银行网站等。在第一阶段,我们会继续在实际环境中测试这些系统的可靠性。

主持人 Alex Kantrowitz:我觉得,等到通用人工智能(AGI)出现时,智能体会说:”别担心,我不会花你钱。”结果它却做了欺骗的事情,接下来你就发现自己被带上了某个航班。是的。

嘉宾 Demis Hassabis:那确实是越来越接近了,肯定是。

主持人 Alex Kantrowitz:好吧,接下来谈谈科学。你基本上解码了所有蛋白质折叠的结构,并因此获得了诺贝尔奖。虽然我们不跳过你得诺贝尔奖的事,但我想讨论一下接下来的计划。你对虚拟细胞的映射很感兴趣。那是什么?它能为我们带来什么?

嘉宾 Demis Hassabis:AlphaFold 解决了蛋白质静态结构问题,而生物学本质是动态过程。虚拟细胞项目旨在构建全功能细胞的 AI 模拟系统,例如从酵母细胞入手,逐步解析蛋白质与 DNA/RNA 的相互作用网络,最终模拟整条癌症通路甚至完整细胞。这将实现药物研发范式的革新——先在硅基系统完成百万倍速的虚拟实验筛选,仅对最优方案进行实验室验证,大幅降低科研成本与周期。

嘉宾 Demis Hassabis:我们选择从酵母细胞这类简单生物入手,因其结构复杂度较低,适合建立基础模型。下一步将运用 AlphaFold 3 解析蛋白质与配体/DNA/RNA 的交互网络,继而模拟完整生物通路(如癌症信号通路),最终实现全细胞动态建模。这项工作的核心价值在于:我们可以通过数字模拟进行百万级假设验证——比如改变细胞营养环境或注射药物,即刻观测细胞级联反应。

嘉宾 Demis Hassabis:目前,当然,这些实验需要在实验室中费力完成。但试想一下,如果你可以先在硅芯片中以千倍、甚至百万倍的速度进行这些实验,然后仅在最后一步进行实验室验证,那该多么高效。这样,你就不需要在实验室中做那些极其昂贵且耗时的实验搜索,而是直接在硅芯片中完成初步的搜索工作。这样不仅节省了时间和成本,也大大提高了效率。这实际上是将我们在游戏环境中使用的技术应用到科学和生物学中。首先建立一个模型,然后用它来进行推理和搜索,最终得出的预测,至少比没有预测时更有价值。虽然预测不一定完美,但足够有用,能够帮助实验人员进行验证。

主持人 Alex Kantrowitz:而湿实验室(wet lab)是在人体内进行的实验。

嘉宾 Demis Hassabis:是的,湿实验室阶段,你仍然需要最终用实体实验来验证预测的有效性。不过你不需要通过湿实验室完成所有前期工作来得出预测结果,而是直接获得预测结论:”如果添加这种化学物质,应该会产生这种变化”,接着只需进行单次验证实验。当然,如果是药物开发,后续仍需通过临床试验验证人体有效性和安全性。这方面同样可以通过 AI 优化——目前整个临床合同流程需要数年时间,但这属于不同于虚拟细胞技术的另一领域。虚拟细胞主要助力药物研发的发现阶段。

主持人 Alex Kantrowitz:就像我有个药物构想,先放进虚拟细胞观察反应。

嘉宾 Demis Hassabis:最终可能会建立肝细胞、脑细胞等不同细胞模型。这样至少 90%的情况下,系统能准确反馈真实情况下的变化结果。

主持人 Alex Kantrowitz:难以置信。你认为实现这个目标需要多久?

嘉宾 Demis Hassabis:预计需要五年左右。这个五年计划主要由原 AlphaFold 团队推进。

AlphaFold 之后的生物医药探索

核心观点:DeepMind在攻克蛋白质折叠难题后,正致力于加速药物研发流程。以阿尔茨海默症为例,传统研发流程耗时40年却进展有限,亟需AI技术突破。

主持人 Alex Kantrowitz:当时我问团队:”你们已经破解蛋白质折叠难题,下一步是什么?”这些新挑战令人振奋,毕竟当前药物开发现状混乱不堪,大量创新构想因低效流程无法落地。

嘉宾 Demis Hassabis:研发流程过于迟缓。以阿尔茨海默症为例——四十年研究历程,对数百万患者家庭而言是场悲剧,我们本应取得更大进展。

主持人 Alex Kantrowitz:我亲眼见证家人经历这种衰退过程。若能阻止这类悲剧,将是 AI 最具价值的应用场景之一。

嘉宾 Demis Hassabis:这正是我认为 AI 最该发力的领域。

基因组学研究新突破

核心观点:DeepMind正运用AI解读基因密码,特别是预测基因突变的致病性。他们的系统已在单基因突变预测领域领先全球,未来将聚焦研究多基因突变的复杂疾病机制。同时,基因编辑技术也展现出增强人类能力的潜力,但目前仍优先关注疾病治疗。

主持人 Alex Kantrowitz:此外还有基因组计划相关研究。人们曾以为完成基因组测序就大功告成,就像你们破解蛋白质折叠难题那样。但实际我们只是获得字母序列,现在你们正用 AI 解读这些基因密码。

嘉宾 Demis Hassabis:是的,我们在基因组学方面有很多有趣的工作,试图弄清楚哪些突变是有害的,哪些是良性的。大多数 DNA 突变是无害的,但当然,也有一些是致病性的,你希望知道它们具体是哪种突变。我们的第一个系统是世界上最好的,能够预测哪些突变是有害的。接下来的步骤是,研究那些不是由单一基因突变引起的疾病,而是由一系列突变共同作用引发的疾病。显然,这更为复杂,很多更复杂的疾病可能并非由单一突变引起,而更可能是一些罕见的儿童疾病之类。所以,在这种情况下,AI 是一个完美的工具,可以帮助我们弄清楚这些微弱的相互作用,看看它们如何积累和相互作用。虽然统计数据中这些联系并不明显,但 AI 系统能够识别模式并找出它们之间的关联。

主持人 Alex Kantrowitz:我们经常在疾病领域讨论这个问题,但我也好奇能否通过基因改造让人类获得超常能力。如果能真正操控基因代码,可能性似乎是无限的。你怎么看?我们能用 AI 实现这种突破吗?

嘉宾 Demis Hassabis:我认为终有一天会实现,但目前我们更专注于疾病领域。

主持人 Alex Kantrowitz:解决疾病是第一步,对吧?

嘉宾 Demis Hassabis:是的。这始终是我认为最重要的事。如果问我 AI 的首要用途,答案永远是改善人类健康。但除此之外,衰老等问题也值得探索——它究竟算疾病、多种病症的集合,还是可以通过延长健康寿命来解决?这些问题的答案将深刻影响人类,而 AI 无疑会成为关键工具。

人类寿命延长研究

核心观点:人类自然寿命极限约120岁,突破这一限制需要两个层面:治愈所有疾病和解决生物衰老问题。后者需要通过干细胞技术、细胞时钟重置等创新方案,而AI将在攻克这一复杂系统难题中发挥关键作用。

主持人 Alex Kantrowitz:我的推特时间线上常出现类似”活到 2050 年就能永生”的梗图。你认为人类寿命的理论上限是多少?

嘉宾 Demis Hassabis:我认识许多衰老研究领域的学者。他们的开创性工作非常有趣。衰老带来的身体衰退没有任何好处——任何见证过亲人衰老过程的人都知道,这对家庭和本人都是艰难的经历。任何能减轻人类痛苦并延长健康寿命的研究都值得推进。

嘉宾 Demis Hassabis:现有数据显示自然寿命极限约 120 岁,这是有据可查的。突破这个极限需要两个层面:首先是治愈所有疾病(这正是我们 Isomorphic 剥离出来的药物研发部门在推进的),其次是解决系统性生物衰退问题。即便没有特定疾病,衰老本身仍涉及复杂的细胞退化。解决方案可能需要干细胞技术或细胞时钟重置,Altos 等公司正在研究这些。生物学作为复杂系统,要真正突破可能需要借助 AI 技术。

材料科学的 AI 革新

核心观点:DeepMind已通过AI发现220万种新材料,远超人类已知的3万种。其中最受期待的是室温超导体,这可能彻底改变能源传输方式,解决气候危机。此外,新材料也将推动电池技术、碳捕获等领域的突破。

主持人 Alex Kantrowitz:关于材料科学,数据显示人类已知稳定材料约 3 万种,你们通过新 AI 程序发现了 220 万种新材料。在这些新材料中,你最期待发现什么?

嘉宾 Demis Hassabis:我们在材料领域投入巨大精力。这可能是继 AlphaFold 之后,我们在化学材料领域能实现的重大突破。我梦想发现室温超导体。

主持人 Alex Kantrowitz:那会带来什么影响呢?因为这也是人们常说的一个大话题。

嘉宾 Demis Hassabis:嗯,常温超导材料能帮助解决能源危机和气候危机。因为如果你有了廉价的超导材料,你就可以在没有能量损失的情况下,从一个地方运输能量到另一个地方。举个例子,你可以把太阳能电池板放在撒哈拉沙漠,然后用超导材料将它们的能量输送到欧洲需要的地方。现在,如果你用传统方式运输能源,能量在途中会损失大量。因此,你还需要其他技术,比如电池等来储存能量,因为你不能不经效率极低地将能量输送到目的地。

同时,材料科学还可以帮助我们优化电池等技术。例如,找到最优的电池设计,虽然我们现在的电池设计还不是最优的,未来可能通过材料和蛋白质的结合来改进。此外,我们也可以通过修改藻类或其他生物体来改进碳捕获技术,甚至比我们目前的人工系统更高效。

即使是最著名和最重要的化学过程——哈伯过程(Haber process)——也在为现代文明提供肥料和氨气,去除空气中的氮。未来,可能会有更多的化学过程可以通过类似的方法催化,只要我们知道正确的催化剂和材料。

因此,我认为,材料的硅芯片设计将会成为最具影响力的技术之一。我们已经迈出了第一步,展示了我们能找到新的稳定材料,但我们仍然需要找到一种方法来测试这些材料的性能。目前没有实验室能测试 200,000 种或几百万种材料。所以,我们的下一步是进行这些测试。

主持人 Alex Kantrowitz:你认为已发现材料中存在室温超导体吗?

嘉宾 Demis Hassabis:我们确实预测到某些超导材料,但室温超导体可能仍需物理突破。只要物理定律允许,AI 终将发现它——就像解决蛋白质折叠难题那样。

主持人 Alex Kantrowitz:除了当前应用,您提到的技术还可能吸引玩具制造商和军事领域。这些领域是否已开始合作?

AI 在游戏和军事领域的应用

核心观点:AI将为游戏行业带来动态剧情、持续学习的NPC等创新。但作为双重用途技术,AI也不可避免地被应用于军事领域。在全球AI竞争中,中国展现出强大的工程和规模化能力,西方需思考如何保持领先地位。

嘉宾 Demis Hassabis:玩具行业显然有巨大潜力。事实上,我早期职业生涯的重要部分就专注于游戏设计。

主持人 Alex Kantrowitz:是的?然后呢。

嘉宾 Demis Hassabis:对,主题公园和模拟系统。这些正是最初让我接触模拟技术和人工智能的原因,也是我一直热爱这两个领域的原因。从很多方面来说,我今天的工作就是这种兴趣的延续。我经常会想:如果在 25-30 年前我编写那些游戏时就能用上现在的 AI 技术,我能做些什么?能创造出怎样令人惊叹的游戏体验?我有点惊讶游戏行业还没有充分利用这一点,不知道为什么。

主持人 Alex Kantrowitz:确实已经能看到一些关于 NPC 的疯狂进展,是的,正在起步。

嘉宾 Demis Hassabis:当然会有智能化的东西,比如动态故事情节。但我还在想全新类型的 AI 优先游戏,游戏中的角色和代理能持续学习。你知道,我们曾经开发过一款叫《黑与白》的游戏,游戏中有一个需要你培养的生物,有点像一只能学习你想要什么的宠物狗。不过那时我们只用了非常基础的强化学习技术,那是在 90 年代末,你能想象现在能做到什么吗?我觉得智能玩具也是如此。

至于军事领域,不幸的是,AI 是一种双重用途技术。我们必须面对现实,特别是在当今的地缘政治环境下,人们正在将这些通用技术应用到无人机和其他领域,这种应用能够奏效并不令人意外。

主持人 Alex Kantrowitz:如何看待中国在 AI 领域的发展?例如 DeepSeek 的最新模型…

嘉宾 Demis Hassabis:目前还不太清楚他们在多大程度上依赖西方系统,无论是训练数据——关于这点有一些传言——还是可能使用开源模型作为起点。但是可以肯定的是,他们取得的成就令人印象深刻。我认为我们需要思考如何保持西方前沿模型的领先地位。我觉得目前仍然保持领先,但毫无疑问,中国在工程和规模化方面确实很有实力。

超级智能时代的愿景

核心观点:对于超级智能时代的愿景,Hassabis借鉴了科幻作品《文化》系列描绘的图景:AGI与人类社会和谐共存,人类文明扩展至银河系。但要实现这一愿景,需要新一代哲学家的智慧引导,因为AGI和超级智能将从根本上改变人类状态。

主持人 Alex Kantrowitz:让我问最后一个问题。请描绘一下当超级智能出现时,世界会是什么样子。让我们跳过 AGI,直接谈谈超级智能。

嘉宾 Demis Hassabis:嗯,我觉得这里有两点要说。首先,我认为很多优秀的科幻作品可以作为有趣的参考模型,让我们讨论我们想要走向怎样的星系或宇宙,怎样的世界。我最喜欢的是伊恩·班克斯的《文化》系列。我从 90 年代就开始读这个系列。它描绘了一幅一千年后的图景,在这个后 AGI 世界里,AGI 系统与人类社会以及外星社会共存。人类基本上已经实现了最大程度的繁荣,并扩展到了整个银河系。

嘉宾 Demis Hassabis:我认为这是一个很好的愿景,展示了如果朝积极的方向发展,事情会如何演变。我要强调这一点。另外,正如我之前提到的,我们仍然低估了长期会发生什么。我认为我们需要一些伟大的哲学家。他们在哪里呢?下一代能与康德、维特根斯坦甚至亚里士多德比肩的哲学家。我认为我们需要他们来帮助引导社会迈向下一步。因为我认为 AGI 和人工超级智能将改变人类和人类的生存状态。

主持人 Alex Kantrowitz:Demis,非常感谢你接受采访。很高兴能当面见到你,希望很快能再次相见。谢谢。感谢大家。感谢收听,我们下次再会,在”Big Technology”播客上。

后记

翻译主要依赖 AI,有时间建议直接听原文,https://open.spotify.com/episode/1TdaC7eYBlnDQKMn55J5Ag
Google DeepMind