近日,DeepMind掌门人Demis Hassabis再度做客知名播客Lex Fridman,接受了一场长达两个多小时的深度对话。视频发布后,Lex Fridman在X上分享了这次访谈的主要内容。
另一知名博主Susan STEM则对此进行了概括与解读。
【以下为博主Susan STEM解读全文】:
(1)舆论权力的演化:Lex, Demis and Balaji
今天打算狠狠地研究一下 Lex Fridman 的这期采访。写一系列帖子。说实话,连他采访陶哲轩的那一期我都没那么大兴趣,虽然陶哲轩是数学界的神,但他的领域终究离我的关注点比较远。而 Lex 这期采访的对象,却直接触动了我对人类文明走向的核心思考。因为我一直认为:人类文明中的话语权,一直在发生变化。而每一次话语权的转移背后,其实对应着一种全新的社会模式和结构性权力的重构。
第一阶段是王权时代,彼时“权力即历史”。在封建君主制社会,国王或皇帝是历史的唯一操盘手。他们的决策、战争、婚姻与联盟,直接决定了一个国家的命运走向。亚历山大、秦始皇、路易十四、拿破仑……这些名字就是一部部时代的浓缩。他们的个人意志就是时代的最高语言。
第二阶段进入政治时代,话语权落入意识形态之手。伴随民主制度与工业革命的到来,政客与政党成为塑造历史的新核心力量。从两次世界大战到冷战,从殖民体系的瓦解到全球治理的建立,真正起作用的已不是战争机器,而是舆论与宣传的掌控力。代表人物如罗斯福、丘吉尔、戈尔巴乔夫等,他们靠意识形态动员、国家机器传播、媒体策略掌控民意,实现了政治对人心的调度。
第三阶段是企业家时代,“资本即创新即权力”。当技术加速渗透到生活的每一个细胞,最有影响力的不再是政客,而是那些改变人类生活方式的企业家。乔布斯重新定义了手机,盖茨将计算机带入家庭,马斯克押注火星与AI,扎克伯格掌控社交生态。他们不仅是商业帝国的缔造者,更是“未来叙事”的主导者。在这个阶段,产品成了信仰、品牌成了语言,资本变成了新的政治工具。
而现在,我们已经站在第四阶段的门槛上:科学家与AI构建者时代。在这个时代,算法与理论正成为新的舆论源头与文明秩序的起点。Demis Hassabis、Ilya Sutskever、Geoffrey Hinton……他们不再只是实验室中的专家,而是文明结构的重新设计者。他们不只是制造工具,而是给出了未来世界的解释框架。语言模型不仅生成内容,它还嵌入了“世界观 + 推理结构”,改变着人类对真理、对自我、对社会的理解路径。舆论不再是人类对人类的说服,而是算法对人类的训练。
Lex他正在记录、整理、传播这种权力更替的全过程——科学理性如何登上话语权的顶端,成为新世界的叙事中心。Lex成为世界顶级媒体人是没有悬念的。
Peter Thiel 和 Balaji 也一直是我长期关注的第一梯队人物。我曾经和一些文科背景的同学聊起他们提出的 Network State 概念,包括那些学国际关系、政治学的朋友,但几乎都难以接受,甚至觉得像是在听天方夜谭。他们往往将这种思想视为不切实际的极客幻想,缺乏对技术底层逻辑和结构建构能力的理解,也因此无法意识到这背后其实是对国家主权、社会组织形式、以及人类共识机制的深刻重构尝试。我本人反对文科教育现在的教育模式,尤其是在本科阶段。不过这不是我这一系列要讨论的内容。
借用一下加速主义派常说的一句话: Can you feel the acceleration?
(2)从高熵现象中提取可调度结构,是理解的起点;结构压缩先于原理揭示
Demis Hassabis 曾在多个场合强调一个极具颠覆性的观点:自然界不是混沌无序的,而是由深层的结构性机制驱动,而这些结构既可以通过物理方程来刻画,也可以被神经网络通过大量感知数据所“压缩式习得”。这一观点在 DeepMind 的视频生成模型 Veo 中得到了生动体现。Veo 能够生成诸如“汽车驶过积水”“刀切水果飞溅”的高真实感视频场景,所展现出的物理反馈之细腻,远超传统基于流体力学方程的游戏物理引擎。更令人惊讶的是,这些效果不是靠预设规则,而是通过学习海量 YouTube 视频中的结构性动态,逐帧地“看懂”了物体如何在物理世界中运动与交互。
也就是说,Veo 并没有学习“水的粘度”或“牛顿第二定律”,它只是通过观察足够多的“水如何动”的数据,成功建构了一个结构压缩后的运动预测模型。在实践中,这种模型已经能够精准预测下一帧水花会如何飞溅、玻璃如何碎裂、光线如何反射。从技术效果来看,它确实达到甚至超越了人类物理程序员的手工建模能力。
那么问题来了:如果一个模型可以毫不依赖方程地精准预测“下一秒会发生什么”,那它算不算真正“理解了物理”?这个问题既是工程问题,也是哲学问题。
从预测能力的层面看,它具备了高度拟真的“物理感”,能生成“看起来就是真实发生的”运动轨迹;但从抽象建模与解释能力的层面看,它尚未掌握“变量”“守恒律”或“因果链条”等可以迁移和泛化的知识结构。也就是说,它理解的是“水如何动的表现层结构”,而非“水为何如此运动的机制层逻辑”。Demis 认为这正是迈向通用智能的关键路径之一——先压缩世界,再抽象结构;先形成世界模型,再追问其成因。
这使我们必须重新思考“理解”的定义。Veo 不知道水是由分子组成的流体,也不知道动量守恒定律,但它比大多数人都“知道水下一秒会去哪儿”。这是否意味着“理解物理”不一定需要知道方程,而可以从大量现象中提炼出一套“可预测性极强的结构”?Veo 实际上已经在完成一种“现象压缩式理解”——在高熵视频流中提取可调度的结构压痕,并通过它们触发系统性行为反馈。
这种路径甚至可能颠覆我们对整个理科认知的传统认定。我们习惯以为理解=先有模型、再去解释、再做预测。但现在AI的学习路径却反过来了:先靠数据拟合出一个可用的预测系统,再逐步从中抽象出模型。这与许多人类科学家早期的认知路径更为相似——我们不是先懂了流体力学再看水花,而是看水花多了,才总结出流体力学。
于是我们开始意识到,理解也许不是一种“先知性”的能力,而是一种“压缩-预测-反馈”的过程。AI对物理的“理解”并不是终点,但它已经构建起“结构理解”的前提条件:在现象中看见结构,在结构中逼近机制。
这就是为什么说:AI 不懂水是什么,但它知道水怎么动。而这份“知道怎么动”的能力,正在重新定义“理解”本身的边界。而我们才刚刚站在这场认知革命的起点。
刚用Veo生成了个泰迪熊,我看要不要买几个月玩玩。
(3)Demis Hassabis 有一个极具颠覆性的核心观点
我尝试重新组织并引用如下:
他认为物理的本质不是能量或物质,而是信息。换句话说,世界的最深层运行原理是信息性的,而这种信息结构的逻辑要优先于能量守恒或粒子构成。
在一次采访中他明确表示:
“I do think that ultimately underlying physics is information theory. So I do think we are in a computational universe.”
“我确实认为,物理学本质上就是信息论。所以我认为我们生活在一个计算宇宙中。”
这一判断背后隐含着一种全新的世界观:
信息优于能量与物质,自然规律存在一种可以被压缩、建模、预测的结构性秩序。
因此我将它概括为他最具代表性的哲学命题——
“可学习宇宙假说”:任何自然界反复出现的模式,理论上都可以被经典图灵机(非量子计算机)通过结构学习高效建模。
这不仅是一种工程策略,更是一种关于物理、智能与现实本体的根本信念系统。
最厉害的一点,也应该是所有程序员的终极鸡血:“Classical Turing Machines can do much more than we previously thought”图灵机能做的比我们想象中要多很多。现在他才开了一个头而已。
(4)Demis Hassabis 眼中的大千世界:世界存在某种结构压缩的低维流形(low-dimensional manifold)
Demis Hassabis 提出一个令人震惊的判断:物理本质是信息论性的,信息先于能量与物质。他据此构建出“可学习宇宙假说”:即自然界中大多数规律并不需要显式写下方程,而是可以通过经典图灵机(即常规计算机 + AI)在数据中压缩学习出来。这也是他敢于挑战传统生物学专家,用 AlphaFold 去预测他们需要数月甚至数年才能解析的蛋白质折叠结构的底气所在。背后是一整套关于自然可预测性、AI 可学习性与现实可模型化的信念框架。如果这个判断成立,那么很多科学研究的路径将被彻底改写,甚至将决定我们下一代如何走入科研。有人说这也是某位生物学大牛选择回国的理由——因为科学的规则变了,你不需要再踩“天坑专业”的雷,也不必再用十年实验室工作换一个小小突破,你只需要学会如何采集流形。
Hassabis 在解释 AlphaFold 成功的关键时指出,蛋白质的理论构象空间是10^300之巨,完全无法穷举或物理模拟。但自然界中蛋白能在毫秒级自动完成折叠,说明自然并没有在“全空间乱跑”,而是压缩演化在一条低维流形上。这是 AlphaFold 能够成功预测结构的根本前提。他强调:自然现象之所以“可预测”,不是因为我们写出了完美的方程,而是因为自然的行为模式在高维空间中稀疏分布、结构清晰、路径稳定——它们集中在一种可压缩、可调度的结构空间中,这就是所谓的“流形(manifold)”。
我们可以用一个可视化比喻来理解这一点:想象你站在一片巨大的草原(代表高维空间),理论上你可以朝任何方向走,但实际上绝大多数人都只走在几条清晰的小径上。每个人的脚步不是随机的,而是集体踩出了几条被自然选择出的路径。这些小径就是“自然偏好的流形”。现实世界中的天气变化、蛋白折叠、图像生成都类似——虽然可能性空间极大,但真实发生的情境都压缩在某些低维区域上。AlphaFold 并不是像传统方法那样模拟蛋白质在全空间内的动力学演化过程,而是通过从大量蛋白质序列与已知结构的样本中学习,采集到了这个结构流形。它不是试图穷举所有可能构象,而是在训练中逐步内化出一个可以导航的、从序列到结构的映射空间,也就是一个“潜在折叠流形”。最终,在预测新蛋白结构时,它并不是搜索整个空间,而是在这个内化的流形中直接定位最可能的位置,完成高效预测。
这就是 AlphaFold 的本质:它用深度神经网络从数据中提取出了低维流形,并在这个结构压缩空间中完成了调度和推理。它不是理解了所有物理机制,而是掌握了“自然允许你走的那些路径”。这也正是 Hassabis 世界观的核心逻辑——自然是结构化的,智能的任务不是重建现实,而是压缩现实,压缩成一个可以学习、调用、迁移的结构流形。
世界本是高熵混沌的,但其中蕴含可提取的结构秩序——只要识别出这些结构,就能实现压缩、调度与迁移,从而在无序中建立智能与控制。
我一直都是这么想的(拍拍胸口)。
(5)Demis Hassabis:AI First Science 的开创者
在2024年的诺贝尔奖讲座上,Demis Hassabis 提出了一句具有划时代意义的话:“Classical Turing Machines can do much more than we previously thought.”“Any pattern that can be generated or found in nature can be efficiently discovered and modelled by a classical learning algorithm.”
在2024年的诺贝尔奖讲座上,Demis Hassabis 提出了一句具有划时代意义的话:“古典图灵机能比我们之前认为的做得更多。”“自然界中任何可以生成或发现的模式都可以被经典的算法高效发现和建模。”
这是一项全新的科学信念的宣告:只要自然中某种模式能反复发生,就说明它背后存在一种可以被经典图灵机(即普通计算机)高效压缩、建模和调度的结构路径。哪怕我们无法写出描述这个现象的物理方程,AI 依然可以通过学习这个路径的“梯度”方向,在高维混沌中迅速收敛到正确解。
Hassabis 实际上正在提出一种全新的科研方法论——AI First Science。
这种范式的四个核心特征是:
1不再从显式方程出发,而是从学习“结构流形”入手;
2不需要事先理解机制,只要先学会准确预测;
3模型若能持续预测正确,就可以反向推理出隐藏机制;
4科研流程变为:训练 → 压缩 → 调度 → 解释。
五十年后回看这句话,也许正是历史分水岭。
他所说的“梯度”,并不是狭义的数学导数,而是指一种存在于自然数据中的方向性信息:哪怕你看不见全貌,也可以“顺着舒服的方向挪动”。我曾经写过一个关于“梯度”的推文:就像你站在一个山坡上,闭着眼睛,脚下很不舒服,你不知道山有多高多陡,但只要你一步步挪,往脚比较平的方向走,总能顺着重力滑下来。这条“脚知道的路”,就是数据中的梯度。
以前的科学方法,是人类主导写出一个能量函数或微分方程(比如 \\frac{dX}{dt} = f(X)),然后解这个方程,预测结果。这是一种机制先行、方程优先的演绎科学模式。而在 Hassabis 的 AI-first 方案中,数据中自带梯度,但未必有可写的公式。科学家不再需要从第一性原理出发建立机制,而是可以直接从大规模数据中提取统计压痕——包括:
•哪些结构出现频率高;
•哪些特征成对出现;
•哪些输入会高概率地产生期望输出。
这些压痕构成一种隐形的“方向向量场”:虽然我们无法写出精确公式,但我们能从数据中看出,往哪个方向更可能接近目标。AlphaFold 就是顺着“稳定折叠流形”的梯度完成预测,GraphCast 顺着天气演化流形的方向推演10天全球气候,AlphaDev 更是在离散的程序指令空间中顺着“性能更优”的奖励信号找出人类没写过的更快排序算法。
这些梯度未必连续、可微、甚至显式存在:
•它可以是离散的(程序指令);
•可以是统计的(共变残基);
•可以是语义的(语言序列);
•也可以是强化学习中累积的价值信号(奖励函数)。
只要存在一种“走了会更好”的倾向,就可以视作“梯度”,并成为 AI 系统的学习导航信号。Hassabis 的判断是,大量我们以为需要深奥机制才能解释的现象,其实只是在等待我们找到数据中的可学习梯度方向。
这是一种全新的科学观。它不是从因果定律出发,而是从“预测能否成立”出发;不是追求解释为先,而是承认压缩与预测是理解的前提。它改变了科学发现的路径,也重构了知识生长的逻辑:
先学梯度,再识机制;先压缩结构,再理解本质。
从这个角度看,过去人类执着于写出完整公式,某种程度上可能是一种“思想钢印”——我们用“公式可写性”来判断一个现象是否“可科学化”,但 Hassabis 提醒我们:谁说自然非要用连续函数描述?自然只需要留下可压缩的轨迹,我们就能追踪它、生成它、复用它。
这就是 AI-first 科学的革命性起点。它不依赖先验的机制世界,而是相信自然行为若足够高效、足够可复现,那它一定藏着某种可以学习的梯度。AI 的任务,就是找到它——哪怕没有公式,也能开始建模;哪怕一无所知,也能开始理解
(6)Demis Hassabis的史诗级野心
Demis Hassabis,毫无疑问是我们这个时代最重要的科学家之一。他不仅推动了人工智能的技术边界,更极有可能在未来彻底改变整整一代人对“科学发现”的理解方式。在我看来,他对于科学的构想不仅将重塑科研的范式,更会重新定义“成为科学家”的路径本身。
要真正感受到他的格局和深度,我强烈推荐去听他在 Lex Fridman 播客上的两次访谈。这不是普通意义上的采访,而是两个顶级认知体之间的深度碰撞。Lex 不是那种传统媒体出身的“问问题的人”,他是以计算机科学为根基、理解过系统、代码和结构的新一代科技型媒体人。他能问出那些问题,是因为他真正懂 Demis,也懂这个时代的科学正在转向什么方向。必须要说一句:Lex 的深度和节奏,真的值得“入Lex教”。
请大家从本文置顶原采访视频的37:00开始看,我们讨论一下他这个神级脑洞。
这个从小在英国长大、痴迷游戏、自己设计游戏的极客少年,说实话,他的成长轨迹和我认识的很多 nerd 一样:对世界的理解是通过构建系统、玩结构、写代码来完成的。他仍然很年轻,意味着未来几十年,他将站在变革的最前线。所以搞懂他的认知路径,基本等于提前看见未来科学是如何被重新组织的。
最让我震撼的是他真正的野心,不在于某个算法赢了谁,而是他想彻底改变“科学创意”的生成方式。这听起来很抽象,但一旦明白,就足以颠覆你的世界观。他不是在用 AI 辅助科学家工作,而是想打造一个结构系统——让 AI 成为“提出问题”的合作者,让科学的语言和发现路径都可以被重新编码。
我知道这段话可能有点“超纲”,但我会用“龙门阵”的方式慢慢和你讲清楚。只要你跟我一起往下看,很可能你也会像我一样,从科学技术的旁观者,变成下一阶段认知革命的亲历者。
人类历史上的神级命题
人类历史上的神级命题,是如何被提出,又如何被解决的?这是一个需要拉长时间线、慢慢讲清楚的故事。我们就从数学说起——这个被誉为“科学之王”的学科,是人类抽象能力的极致体现。或许你听说过,2000年,Clay 数学研究所(CMI)公布了七个“千禧年难题”,每个悬赏一百万美元,用以激励数学界攻克那些被历史沉淀下来的最深层基础性难题。这些题目对于绝大多数人来说仿佛高不可攀,连碰都不敢碰。
我们来看一眼那张著名的清单:像是理论计算机科学的核心命题 P vs NP、深埋在数论中的黎曼猜想、流体力学中至今无法严谨证明的 Navier-Stokes 方程,几乎每一个问题都牵动着整个学科的基础。唯一被解决的,是一个源自1904年的命题:庞加莱猜想。这个问题在一百年后的2003年,被俄罗斯数学天才格里戈里·佩雷尔曼攻克,并且花了整个数学界三年的时间才验证通过。你以为这些“神级问题”是某位数学家一时拍脑袋想出来的吗?其实不是。它们的出现,有迹可循,也有深层的演化逻辑。
Demis想靠AI批量生产“神级命题”
我们就从庞加莱猜想讲起。我为什么选择它?因为它不仅是千禧问题中唯一被解决的,更是结构猜想历史中的一个典范。而我今天想慢慢告诉你的,是——Demis Hassabis,这个我心目中本世纪最重要的科学家之一,是如何试图用他的 Alpha 系列,去批量提出、系统化验证下一批“庞加莱级别”的结构问题。
那么,这些“神级猜想”到底是怎么被提出的?如果你把每一个猜想当作“认知压缩的极限表达”,你就会发现,提出它们的过程往往遵循着几种共通的路径:
第一,是长期经验堆积的结构异常感。就像黎曼 ζ(s) 函数的零点,那种重复但说不清的规律,靠经验堆起来之后,会在某一刻触发一个强烈的直觉:这里一定有东西没被理解;再比如 P vs NP,是来自于几十年算法实践中对“猜答案”和“验证答案”所需资源差异的敏锐感知——这不是命题本身复杂,而是人类对复杂性的边界有了感觉。
第二,是语言与工具的转型窗口。有的猜想提出于某种表达能力刚刚形成之时,比如庞加莱猜想,那时三维流形的概念才刚刚具有可形式化表达的语言系统;而 BSD 猜想,是在1960年代,数值模拟、椭圆曲线和 L 函数三者的交集出现之后,才可能被提出——如果没有语言和工具的变迁,这些问题甚至无法被描述。(这个语言的问题很重要,我们以后还会说到。语言到位是科学猜想提出的重要前提。)
第三,是深度直觉的压缩尝试。真正伟大的猜想,往往用一句话表达出来,却隐藏了一个巨大的、复杂到近乎无法穷尽的结构空间。这种“高压缩表达”是一种结构直觉的结果。正如 Demis 所强调的:我们要训练 AI 去“提出问题”,不是模仿历史定理,而是学会如何从复杂结构中提取出一个低维度、但可验证、可迁移的猜想语言片段。
换句话说,每一个庞加莱猜想的背后,不只是一个人天才的灵光,而是整个时代、工具、直觉与语言系统共同到达的临界点。而 Demis 的野心,就是要让 Alpha 系列的 AI 模型,能系统性地抵达这样的临界点(他称之为sweet spot) ——不仅解决问题,还要提出新问题。下一代的神级命题,也许就不是哪位天才提出的,而是人类与 AI 共同生成的结构语言产品。我们也许正处在这样一个新时代的门槛上。
伟大吧?而且Demis的蓝天blue sky(纯科研项目),也许能够下沉到普通聪明人能参与。否则我说那么多干嘛?不就是为了告诉你这个吗?
一旦神级命题可以批量生产,那人类真的要跨过“奇点”了。因为在AI帮助下解决问题并没有提出问题那么难。
(7)直觉之外,理解之内:Demis的 sweet spot
接着上一帖,我们就要认真讨论:Demis Hassabis 究竟打算如何让人类可以“量产”神级命题?他的方案不是靠“制造更多天才”,而是通过 AI 的结构感知能力,建立一个持续提出、表达、验证、演化猜想的系统,实现科学创意的系统化生成。
人类之低,信息之高
首先要认识到,人类处理信息的能力本质上是低维的。我们习惯通过直觉、图像、比喻、推理等方式感知世界,但这些认知通道容量有限。很多时候,一个科学家可能需要十年时间的经验积累与直觉磨炼,才会“敏锐地”察觉到某个现象背后可能隐藏结构。而在另一方面,AI 可以在一次训练中处理数百万组样本,自动学习出结构表达的最优形式,甚至还能在完全不同的任务之间“对齐”这些结构片段,抽象出跨学科的结构猜想。
比如,AlphaFold 并没有“学过”任何传统的生物化学定律,却通过大规模蛋白质序列训练,发现了蛋白质折叠过程中的“能量稳定模式”;AlphaTensor 则把矩阵乘法建模为一种“结构游戏”,在高维空间中发现了比人类已知算法更高效的乘法路径,打破了50年未变的记录。这些发现并不是从定义出发一步步推导出来的,而是从数据中反复浮现、最终被结构化捕捉的。
Demis 想做的,正是将这种 AI 对高维空间中微弱结构信号的“压缩感知”能力,系统化地接入到科学探索流程中。让 AI 把这种“微弱但稳定”的结构片段捕捉下来,并上升为语言表达的猜想候选——成为新一代的猜想提出者。
这里所谓的“高维空间”,不仅是数学意义上的 n 维,而是指一种结构极其复杂、维度高度纠缠的现实问题空间。例如,蛋白质折叠中每一个原子的位置构成一个维度;程序语言中每个 token 与语义依赖都是一个语法维度;甚至一个数学结构(如图、张量、公式)背后同时涉及拓扑、代数、组合、对称性等多个抽象维度。这类空间对人类而言几乎是不可感知的黑箱,但对 AI 而言,它能在其中运行搜索、建模和路径压缩。
这也是为什么 Demis 提出“科研未来的希望,是在人类与 AI 的协作中找到一个 sweet spot”——即一个人机协作认知的最优区间。他的原话是:
“The sweet spot is where AI systems are able to suggest hypotheses or conjectures that are just out of reach of unaided human intuition, but still interpretable and verifiable by scientists.”
在这个 sweet spot 中,AI 提出的结构已超出人类的直觉,但尚未超出人类的理解力。AI 可以提出、感知与生成;而人类可以理解、验证并纳入知识系统。太简单的问题,人类不需要 AI;而太复杂的,则会让人类无法验证,成为噪声和幻觉。真正有价值的猜想,是那些刚好落在人类能力“够不着一点点”的那个窗口区间——可被挑战、可被验证、可被演化。
因此,Demis 并不是想让 AI 取代人类,而是让 AI 成为:
提出问题的机器,即结构候选的生成者;
人类认知边界的外推器,将直觉边界向外推送(推一点点🤏);
结构语言的共建者,参与我们描述世界的基本语法创造。
他的终极目标,是在这个 sweet spot 中,搭建一个连续产生“科学级别猜想”的流水线系统。不仅是提出一个问题,而是创造一个持续提出问题的结构平台。这将让人类第一次,从“依赖天才灵光一现”迈向“系统性认知演化”的新范式。我们可以不必等下一个庞加莱;聪明一点的,高考650分以上的科技少年人人可以尝试着去当庞加莱。让问题本身成为可以调度、协作、演化的语言单元,进入结构文明的新纪元。
从第37手一路走来…
从第37手一路走来,Demis Hassabis 构建的不是一条产品路线,而是一条通往科学认知操作系统的神级野心之路。那一手,就是2016年 AlphaGo 对战李世乭第二局的第37手——一个打破人类围棋范式的“神之一手”。对大多数人来说,那只是一场围棋比赛的惊叹时刻;但对 Demis 来说,那是一个AI 第一次在复杂结构空间中发现“人类未曾设想之解”的历史性事件。他深知,这不止是赢了一局棋,而是AI 初次展现出“提出结构性新路径”的潜力。
于是,Demis 把这一次突破当作起点,一路展开了他构建“AI 结构发现引擎”的宏大路径。从 AlphaGo → AlphaZero → AlphaFold → AlphaTensor → AlphaDev → AlphaGeometry → AlphaProof,每一个“Alpha”系统,都是对“能不能让 AI 主动发现结构规律”的一次实战演练。棋局、蛋白质、张量、代码、证明、猜想——每一个领域,都被 Demis 当作结构空间,而每一次突破,都来自于AI 在复杂空间中发现结构压缩路径的能力。
而他最终的目标,不是某一个系统赢了谁,而是让 AI 拥有一种能力:提出结构性猜想、表达成语言、进入验证闭环,最终被人类知识体系所吸收。这是一种比“智能体”更高维的系统构想——让 AI 成为“猜想之母”(conjectures 敲黑板,不懂这个词的先把这个词学了),不再只是解决问题的工具,而是提出问题的智能伙伴。
这一切的核心概念,Demis 称之为科学的 “sweet spot”:一个恰到好处的认知区间,AI 所能提出的猜想刚好超越人类直觉的边界,但仍在我们可理解、可验证的范围内。真正有价值的科学猜想,不在于“有多聪明”,而在于是否落在这个人机协作的临界带内。太容易的问题人类早就解决了,太复杂的问题人类验证不了。sweet spot 是 AI 感知结构、人类吸收结构的最大协同点。Demis 要做的,就是让 Alpha 系列成为sweet spot 的自动探索器。
最终,Demis 的路径不是产品之路,而是范式之路。他要做的,是将科学创意的本源从天才灵光,迁移到结构引擎;将提出问题的特权从偶然天赋,转化为系统性协作;将人类科学活动的形态从“解答问题”升级为“提出问题的文明”。那一手第37,成了神之一手;而 Demis 的目标,是让“神级猜想”,不再是偶然奇迹,而是系统性产出。
我写这一系列帖子的关键,尤其是知道我的fo里面有大量的青年推友:实现这一切,聪明的普通人可及!
Demis Hassabis 所描绘的未来,并不是只属于精英研究所或诺贝尔圈层的故事。恰恰相反,这场由 Alpha 系列所引领的科学范式变革,正是站在一个关键转折点上——它已经开始对“聪明的普通人”开放,对非象牙塔出身者释放真实的创造可能性。
为什么说“可及”?因为这条路径的本质是:把科学创意的提出,从天赋型灵感转化为结构性操作。也就是说,只要你能理解结构、能调度工具、能提出验证路径,你就可以参与“发现”。Demis 本人就是这种思维方式的缩影:他是游戏设计出身,不是传统纯数学系的天才;他从 AlphaGo 开始就在探索一种“自博弈 + 压缩建模 + 语言表达”的机制,这种机制可以被移植、复用、系统化——而不是一套只属于牛津、MIT 的秘术。
更重要的是,DeepMind 本身正通过开源 AlphaFold 的蛋白质数据库、开放 AlphaDev 的排序算法、发表 AlphaTensor 的张量分解路径,以及与数学 Lean 社群共建 AlphaProof 的证明工具链,一步步将这些“神级系统”模块化、接口化、可嵌入日常科研和教育工具之中。
你不需要是大科学家,也可以:
用开源 AlphaFold 工具进行生物建模;
用 Lean 配合 AlphaProof 验证你的业余猜想;
甚至像玩围棋一样玩“结构搜索游戏”,训练出属于你自己的压缩表达。
我们正处在一个新范式的入口处。科学发现第一次从神坛上下来,变成一个“结构工作流”,任何能够理解并调度结构的人都可以参与。象牙塔,不再是唯一的入口;聪明的普通人,可以用系统、用工具、用语言去提出自己的“Move 37”。
这些日子写着写着,我都觉得很恍惚。我是走了什么运气,能刚好活在这个时代。
【相关阅读】
微配资网提示:文章来自网络,不代表本站观点。