加入我们

诺奖得主哈萨比斯:人工智能犹如一支救兵,将解决人类多个棘手问题

已发布

2025年04月30日

分享

截屏2025-04-30 15.09.24.png

4月29日消息,外媒记者比利・佩里戈(Billy Perrigo)日前独家专访了谷歌DeepMind首席执行官、2024年诺贝尔化学奖得主德米斯・哈萨比斯(Demis Hassabis)。

当年10月,被誉为“AlphaFold之父”的哈萨比斯和DeepMind团队成员约翰·江珀(John M.Jumper)因为蛋白质结构预测获奖,而华盛顿大学的大卫·贝克(David Baker)因计算蛋白设计荣获殊荣。他们开发的AI解决方案成功解决了50年来蛋白质结构预测领域的重大挑战,加速了生物医药领域的科学发现。

哈萨比斯在2022年11月曾接受过佩里戈的专访,当时距离ChatGPT发布仅数周。即便在那时——远在人工智能热潮席卷全球之前——这位谷歌旗下顶尖AI实验室的掌舵人就对人工智能的加速发展发出了严厉警告。哈萨比斯当时曾表示,他并不认同“快速行动、打破常规”的硅谷信条。他还批评了同行中存在的鲁莽倾向,将部分研究者比作“手持危险物质却不自知的实验狂人。”

两年半后的今天,人工智能领域已沧海桑田。AI技术的迭代速度如此迅猛,包括哈萨比斯在内的众多研究者如今认为,人类级别的人工智能(业内称为通用人工智能,AGI)可能在本世纪内实现。但是在2022年,就连承认AGI的可能性都被视为边缘观点。但哈萨比斯始终是坚定的AGI信仰者,创造该项技术正是他毕生追求的目标。

实现AGI所需的天文级算力,几乎被谷歌等少数科技公司垄断,这使哈萨比斯与其东家之间形成微妙制衡。2014年,这位人工智能先驱带领DeepMind加入谷歌时,曾迫使公司签署特殊协议,明确禁止将DeepMind技术应用于军事或武器领域。然而十年后,这项协议已名存实亡—谷歌不仅向美国、以色列等多国军方提供搭载DeepMind AI技术的服务,更将其部署于实战场景。

这一矛盾让哈萨比斯陷入伦理与现实的两难境地:为了实现毕生理想,他是否做出了某种妥协?

以下为访谈内容摘要:

问:若AGI得以实现,其影响将极为深远。能否描绘最理想的发展图景?AGI将如何重塑世界?

答:我毕生投入AI与AGI研究,正是因为这项技术若以负责任的方式开发,将成为人类史上最深刻的变革力量。展望未来十年乃至更长远,AI或能彻底攻克所有疾病,加速核聚变、高效电池等新能源技术突破,并催生如常温超导体等革命性材料。当前人类最严峻的挑战—从气候危机到公共卫生威胁—都将通过AI驱动的解决方案迎来转机。以十年为尺度,我们或许会见证一个文明全面跃升的时代:在AI赋能下,星际航行成为现实,所有受限于技术瓶颈的文明可能性被逐一解锁。

以气候变化为例,人类集体行动的迟缓性已注定无法在关键窗口期达成有效共识,唯有借助能源系统优化、碳捕捉建模等AI技术才可能实现破局。

如果我没有预见到AI这般变革性力量的降临,那么我肯定会对当下社会忧心忡忡。正是因为知晓只要我们得当地开发AI,它便能助力我们攻克诸多棘手难题,我才对未来的五十年满怀希冀。人工智能犹如一支救兵,而当下,我们正亟需这般救援力量。

问:你一直积极倡导要规避相关风险。能描绘一下最糟糕的情况吗?

答:我认为最糟糕的情况在科幻作品里已被反复描绘。我最担忧的两个问题是:如果使用得当,AI将是项极具变革性的技术,但它是“双刃剑”,且力量强大到令人难以置信。这意味着不法之徒可能会将该技术用于潜在的有害目的。所以,我们所在的领域及整个社会面临的一个巨大挑战是:如何确保善良之辈能利用这些技术做出诸如治愈绝症这般了不起的事,同时又限制那些不法之徒,无论是个人还是某些”流氓国家”,获取相同技术?这真是个棘手的难题。

第二个问题是AGI本身的风险。随着技术愈发自主、更像智能体,未来几年这种情况将逐渐显现。我们如何确保始终掌控这些系统,控制它们、理解它们的运作方式,并为其设置不可被高度自主且能自我改进的系统突破的防护栏?这也是个极具挑战性的问题。以上就是风险的两大主要方面。若能妥善应对,我认为我们将迎来一个美好的未来。

问:这并非最糟糕的情况。那最糟糕的情况究竟是怎样的?

答:如果我们在这方面出现失误,那么这些系统就会被用于各种有害场景,这与我们的目标完全相悖。我们本意是利用它们寻找治病良方,结果它们却被用来制造毒素。其实,所有好的应用场景都有可能因系统目标被扭曲而变成有害场景。这就是为什么我一直主张国际合作。

因为无论这些系统在何处以何种方式开发,它们都能在全球范围内快速传播,几乎对世界每个角落的每个人都产生影响。所以,我认为我们需要制定国际统一标准,明确这些系统的开发准则、目标设计以及部署和使用规范。

问:2014年谷歌收购DeepMind时,你曾在合同中规定谷歌不得将技术用于军事目的。此后公司进行了重组,现在DeepMind的技术被出售给包括美国和以色列在内的多国军方。你曾谈到开发AGI的巨大潜力。为了获得开发该技术的机会,你是否在这一方面做出了妥协?

答:不,我不这么认为。我们最近对相关规定进行了更新,部分原因是为了应对当前复杂多变的地缘政治局势。这个世界已经变得比以往更加危险。我们不能再想当然地认为民主价值观必定会胜出—我觉得这一点现在完全不确定。我们面临着诸多严重威胁。所以,我们需要与各国政府合作。

同时,与政府合作也能让我们与银行、医疗等其他受监管的重要行业开展合作。我们的原则没有任何改变。我们始终秉持的核心原则是:必须审慎权衡各项益处,确保其显著超过潜在风险。这是我们开展任何一项工作的高标准。当然,我们必须遵守国际法和人权法规—这些要求依然有效。

还有一个变化是这项技术的广泛可得性。开源技术、DeepSeek、Llama等虽然可能不如顶尖的专有模型出色,但也相当不错。一旦技术开源,基本上全世界都可以随意使用。因此,我将技术分为商品化技术和定制化技术两类。

对于定制化工作,我们计划专注于我们独具优势的领域,例如网络防御和生物安全—我认为在这些领域,我们有道德责任去提供帮助,因为我们是全球最擅长这些技术的团队。

问:在人工智能安全领域,人们热议这些系统是否可能追求权力、具有欺骗性、试图削弱人类控制并摆脱监管。对此,你认为这是发展的必然趋势,还是仅属于小概率风险?

答:我认为这些风险难以预测。我的同事中,不乏图灵奖得主,对此问题也意见不合。所以,正确答案可能居于两者之间。这场辩论双方都有诸多智者参与,这表明我们对这一领域还不够了解,难以精准评估风险。

或许,随着技术进步,我们发现控制这些系统远比想象容易,历史上也有不少类似的先例。这说明事情可能没那么悲观,但在我看来,风险依然存在。我们必须严谨研究、量化风险,并提前尽可能具有前瞻性地应对,而不是等到问题出现后再去解决。对于如此强大且具变革性的技术,亡羊补牢可能代价惨痛。

问:有什么问题让你夜不能寐吗?

答:让我忧心忡忡的是国际标准与合作问题,这不仅涉及国家之间,还包括公司与研究人员之间的协作,尤其是当我们接近实现AGI的最后阶段。我认为我们已处于这一阶段的边缘。或许距离AGI问世还有五到十年,有人认为时间更短,我对此并不意外。这更像是一个概率分布问题。

但无论如何,AGI的到来已迫在眉睫。我不确定社会是否已做好准备。我们必须仔细思考这些问题,同时也要考虑我之前提到的关于系统可控性以及如何确保系统访问安全的问题。

问:你认为自己更像是科学家还是技术专家?你如何自我定位?

答:我首先将自己定位为科学家。我所做的一切,都是为了追求知识,试图理解我们周围的世界。我从小就对痴迷于这个问题。对我而言,构建AI是我探索这些问题的方式。构建一个工具,这本身就很迷人,也是对智慧、意识等问题的一种思考,而这些问题本身就是目前最大的谜团之一。

此外,AI还有双重用途,它可以用来研究我们周围的自然世界,如化学、物理和生物学。还有什么追求比这更令人兴奋?因此,我首先把自己看作科学家,其次可能是个企业家,因为这是快速推进事情发展的途径。

最后,我或许也可以被视为技术专家,因为最终,我们不仅仅想在实验室里空想理论,更希望在现实世界中产生实际影响。

问:OpenAI首席执行官奥特曼表示,他预计AGI将在特朗普任期内问世;而Anthropic首席执行官达里奥·阿莫代伊认为,AGI有望在2026年出现。你对此有何看法?

答:部分而言,这取决于你对AGI的定义。出于各种原因,比如筹集资金等,这个定义已被稀释了许多。而我们对AGI的定义始终如一,即拥有人类的所有认知能力。

我的测试标准是:这种 AI技术能否像爱因斯坦在20世纪初那样,在掌握同等信息的基础上提出广义相对论?因此,这不仅仅是解决一个数学猜想的问题,而是能否提出一个有价值的猜想。我坚信,我们很快就能拥有可以解决千禧年大奖( Millennium Prizes )问题之一的系统。但它们能否像那样提出一套有趣的猜想呢?

问:听起来这正是你之前提到的科学家与技术专家之间的区别。所有的技术专家都表示:这是一个能够在经济价值劳动上比人类更好、更廉价地完成任务的系统。

答:这是表述这一区别的一种绝佳方式。也许这就是我对其深深着迷的原因,因为我一直钦佩历史上的科学家,我认为正是这些人推动了知识的边界—而非仅仅将其用于实际应用。显然,工程与科学部分对社会都同等重要。我认为,现有的 AI缺少了假设生成能力。

问:在具体细节上,你觉得我们距离拥有能够真正为AI研究做出贡献的自动化研究人员还有多远?

答:我认为还需要几年时间。编程辅助工具已经相当不错了。我认为到明年,它们将变得非常出色。我们正在大力推进这方面的发展。Anthropic主要专注于此,而我们则更多地涉足科学领域。在为操作系统构建优美结构方面,AI还不如顶尖的程序员。我认为这一部分仍然缺失,所以我认为还需要几年时间。

问:你们在Gemini模型中非常注重多模态,并且不仅仅局限于语言空间,还将其与现实世界相结合。相比其他实验室,你们在这方面投入更多。这是为什么呢?

答:原因有几方面。首先,我认为真正的智能需要对周围的时空世界有理解。这对于任何真正的科学研究来说也至关重要。此外,我认为这实际上会让语言模型变得更好,我想我们已经看到了一些这样的成果,因为你已经将其与现实世界的背景联系起来。

尽管事实上,语言模型自身的发展已经远超一些人的预期,也许超出了我的想象。最后,这还与应用场景有关,因为我有两个我们正在大力研发的应用场景。一个是通用数字助理的概念,它可以在日常生活中帮助你提高效率、丰富生活。

它不仅存在于你的电脑中,还会随身携带,可能在你的手机或眼镜或其他设备上,并且一直都非常实用。要做到这一点,它需要理解你周围的世界并处理相关信息。

第二个是机器人技术。对于现实世界的机器人来说,这正是它们所需要的。它必须理解其所处的空间环境。人类是多模态的,对吧?我们操作屏幕。我们有视觉能力。我们喜欢看视频、创作图像、聆听音频。所以我认为,AI系统需要在这方面与人类相呼应,才能与我们进行最充分的互动。

问:Signal公司总裁梅雷迪斯・惠特克对你刚刚描述的通用智能体提出了一些相当有力的批评。她指出,这些帮助并非凭空而来,你实际上是以牺牲大量个人数据为代价换取的。为了使其发挥作用,你必须授予它访问你几乎一切生活信息的权限。谷歌是一家数字广告公司,通过收集个人信息推送精准广告。你如何看待此类智能体对隐私的影响?

答:梅雷迪斯提出这一点是很正确的。我十分欣赏她在Signal公司的研究工作。首先,我认为所有相关服务都应当基于用户自愿选择加入。然而,我们确实选择加入了许多数字追踪服务。

所以,首先,这取决于个人选择,但显然,人们会因为实用性而选择加入。我认为,只有当你完全信任该助手时,这种服务才能奏效。它必须值得你的信赖,因为就像现实生活中的得力助手一样,他们越了解你,就越有用。我的助手们对我的了解甚至胜过我自己,这就是我们团队协作如此高效的原因。

我认为,这也是你对数字助手的期望。但与此同时,你必须确信数据被严格隔离保护。我们拥有世界顶尖的安防团队致力于此,确保隐私得到保护,数据即使在我们的服务器上也处于加密状态。

我们正在努力确保这些技术在助手类服务Project Astra正式推出时准备就绪。我认为,这将是一个消费选择问题。用户会倾向于选择保护隐私的系统。而且,我认为边缘计算和边缘模型在这里也将非常重要,这也是我们如此重视小型高性能模型的原因之一,它们可以在单一设备上运行。

问:我不知道你认为我们还有多久会看到这项技术对劳动力市场产生重大影响。但如果或当这种情况发生时,这将带来巨大的政治动荡。你有应对这种动荡的计划吗?

答:我与许多经济学家讨论过这个问题。我认为,首先需要该领域专家—经济学家等进行更深入的研究。但据我与经济学家交流所知,目前相关研究似乎还不足。我们开发智能体系统是为了提高实用性。我认为这将对就业产生影响。但我猜测,这将催生新的就业岗位。

我认为在下一阶段,人类将通过这些强大工具获得超级能力,前提是你会使用它们。诚然,这将带来冲击,但总体而言,会产生更好的就业机会、更令人满意的岗位,而繁琐的工作将逐渐消失。过去技术发展一直如此。

然而,当AGI能够胜任众多任务时,问题就变成了:我们能否公平且广泛地分配生产效率提升带来的收益?此后还存在一个关于生活意义和价值的哲学问题。我认为我们需要一些杰出的哲学家来思考这个问题。

问:2022 年我对你采访时,曾讨论过这个问题。你当时表示:“如果身处一个极度充裕的世界,那么不平等现象的空间及产生方式都会减少。这是AGI愿景若得以实现的积极后果之一。” 但在那个世界里,仍将存在掌控财富的人和没有财富的人,以及可能失去工作的劳动者。似乎要实现财富再分配的 “极度充裕” 愿景,需要一场重大的变革。你能详细阐述这一愿景将如何实现吗?

答:我个人没有在这上面花费太多时间,但或许我应该越来越多地思考这个问题。而且,我认为顶尖经济学家应当深入研究这个问题。我所说的 “极度充裕” 是指借助AI解决核聚变、优化电池技术或超导体等难题。假设我们依靠AI解决了所有三个问题,这意味着能源成本将基本归零,并且是清洁、可再生的。

这将使海水淡化成为解决水资源短缺的可行办法,因为这仅需能源和海水。这也意味着制造火箭燃料将变得简单—只需利用类似技术从海水中分离氢气和氧气。因此,许多构成资本主义世界基础的要素将不复存在,因为其根基是能源成本、资源成本和资源稀缺性。但如果我们开辟了太空领域并开始开采小行星等—当然,这需要数十年来构建基础设施—我们将进入一个全新的经济时代。

问:我认为这并未触及不平等问题,对吗?开采小行星依然能积累财富。土地毕竟是有限的。

答:如今许多资源都是有限的,这意味着最终这将是一场零和博弈。我所思考的是一个不再是零和博弈的世界,至少从资源的角度来看是这样。当然,人们可能仍然渴望权力等其他东西。这需要通过政治途径解决。但至少我们解决了其中一个主要问题。因为我们所处的这个世界资源有限,最终一切都会变成零和博弈。这并非冲突和不平等的唯一根源,但确实是一个主要根源。

这就是我所说的 “极度充裕”。从有意义的角度来看,我们不再处于一个资源受限的零和世界。但我认为围绕这种情况,可能需要一种新的政治哲学,我对此相当肯定。

图片1_副本.png

文章来源:腾讯科技,本网站仅用于公益宣传,转载请注明文章作者及来源。如有侵权请联系我们及时删除。



分享到微信朋友圈 ×

点击右上角分享按钮