2025年12月01日00:15最近AI圈有个大新闻,被很多人称为“AI教父”的Ilya Sutskever,就是OpenAI的联合创始人,他最近一番采访,可以说是直接把整个AI圈的遮羞布给掀了。听完感觉,原来我们每天吹上天的AI,本质上就是个“题海战术”培养出来的高分低能选手?00:36没错,他这个比喻特别精准。现在的AI就像一个刷了1万道题的竞赛生,考试成绩爆表,各种评测榜单上碾压人类。但你让他在现实世界里解决一个稍微没见过的问题,他就可能犯一些特别低级的错误。00:53我太有感触了。有时候让AI写个代码,它看起来头头是道,但你指出一个bug,他道歉,然后改,结果又引入一个新bug,你再指出来,他又把第一个bug给改回来了,像个复读机一样在两个错误之间反复横跳。01:07这就是典型的应试教育后遗症。AI公司太在乎那些评测指标了,哪个分数低了就赶紧针对性的猛刷题。结果AI变得非常擅长考试,而不是真正的理解和解决问题。01:20这就有点本末倒置了。我们花了这么多资源,结果就培养了一堆只会考试的机器学生。话说回来,我们人类又是怎么做到在数据量少的可怜的情况下,反而拥有那么强的学习和决策能力的?01:34你俩提的那个例子就特别有冲击力。他说有个病人因为脑损伤负责情绪的区域坏掉了。这个人的智商测试完全正常,逻辑推理也没问题,但是他做不了任何决策,选双袜子都要花好几个小时。01:48这有点颠覆我的认知。我们总觉得情绪是决策的干扰项,是不理性的对。01:55但事实恰恰相反,这个案例说明情绪或者说一个更底层的价值判断系统,才是我们人类做出正确决策的核心。没有他,你就是个高智商的废人。反观我们学习,一个小孩没看过多少数据,他的车辆识别能力已经强到足够去学开车了。这背后一定有一种比现在AI更高效的底层学习算法。02:20我明白了,所以我们人类这种举一反三的能力和AI靠海量数据运算的题海战术根本就不是一个路子。那现在这些AI巨头们还在沿着老路走吗?02:31这就是Ilya批评的重点。他有句话特别扎心,说现在AI圈的问题是公司比点子还多。你想想OpenAI、google、meta还有国内一大堆公司都在疯狂烧钱,但本质上都在做同一件事,怎么说?就是把模型搞得更大把数据喂得更多A把这比作大家都在比谁的锅更大,而不是研究怎么把菜做得更好吃。02:59这个比喻太形向了。03:00这就是所谓的缩放时代的弊端。大家都在堆算力堆数据,但真正的突破性想法很少。Ilya认为这条路快走到头了,因为互联网上的高质量数据快用完了,单纯再加100倍的算力,带来的提升也越来越小。03:17所以他觉得继续沿着堆料这条路走下去,很快就会撞上天花板,AI行业必须得回到真正的研究时代去找新方法了。03:27完全正确。这就像一个行业过度依赖某一种成功模式,一旦这条路走不通,就可能集体迷茫。Ilya的喊话其实就是对整个行业的一种警示,要警惕这种路径依赖的陷阱。03:41好,既然堆料这条老路走不通了,未来的超级AI会是什么样子?Ilya好像也有个颠覆性的看法。03:50他重新定义了大家对AGI也就是通用人工智能的理解。我们总以为AGI是一个什么都会全知全能的上帝,但Ilya说人类自己都不是AGI,你让一个普通人去当医生律师,他也不会有道理。04:07那人类的通用智能体现在哪?04:10体现在学习能力上。所以伊利认为未来的超级AI更应该是一个超级学习者,他就像一个新员工,但学习速度可能是人类的100倍。04:20我明白了,所以未来可能不会有一个万能的AI而是会出现很多专科ai比如一个AI特别擅长写代码,另一个特别擅长打官司,就像我们人类社会的分工一样。04:32正是这个意思。但这也带来了一个更深层次的问题,如果一个AI能学会所有技能,还能把不同领域学到的知识融会贯通,那就太可怕了。所以安全问题就成了重中之重。04:44没错,这种超级学习者的潜力越大,失控的风险就越高。关于AI安全alia是怎么看的?04:52他说了句大实话,AI安全最大的问题是我们根本想象不出超级AI有多强。就像我们现在很难去真正理解一个超级智能会怎么思考。但他预测随着AI越来越强,以前的竞争对手比如OpenAI和Anthropic会开始在安全问题上合作,因为他们是真的怕了,同时政府也一定会像管制核武器一样介入。05:19这些听起来都还比较常规,他有没有提出什么更更激进的方案?05:25他提了一个,而且他自己都说我不喜欢,但这可能是答案,就是人机合体。05:30人机合体,你是说用脑机接口把人和AI连起来。05:35对,他的逻辑是如果未来人类只是站在旁边看AI工作,那我们迟早会被边缘化,变成吉祥物,这很危险。但如果通过脑机接口,AI懂什么你也懂什么,AI做决策你也参与决策,这样人类才能继续留在核心圈。05:53这听起来也太科幻了,不过想想马斯克的Neuralink也确实在搞这个。那Ilya他自己从OpenAI出来创立的新公司SSI又在憋什么大招呢?06:04他的计划非常硬核,别的公司都是一步步迭代,从GPT3到GPT4。这样SSI的目标是不发中间产品,直接搞出最终的超级智能。他想完全专注于技术突破,不受市场竞争的干扰。06:19这真是要么不出手,一出手就要王炸。他有说大概什么时候我们能看到超级AI吗?06:25他给了一个区间,5到20年.06:27这范围也太大了。06:29看起来大,但其实很有深意。五年大概是2030年和OpenAI之前提的AGI时间点差不多。20年就是2045年,接近奇点理论家库兹韦尔说的时间。所以基本可以确定,我们这一代人大概率是能亲眼见证历史了。06:48听完感觉我们真的活在科幻小说里。今天聊下来,感觉Ilya这次访谈信息量巨大。你能不能帮我们总结一下最关键的几个要点?06:57当然我觉得核心有这么几点。第一,现在的AI陷入了应试教育的困境,高分低能必须反思。第二,AI公司靠堆数据堆算力的缩放时代快到头了,必须回归到真正的技术研究。第三,未来的超级AI不会是全能上帝,而是一个超级学习者,可能会带来行业的高度专业化。最后也是最重要的,超级AI可能在5到20年内出现,它的影响力会超乎想象,我们必须极度重视它的安全问题。07:32以上就是本期播客的全部内容啦。
No persons identified in this episode.
This episode hasn't been transcribed yet
Help us prioritize this episode for transcription by upvoting it.
Popular episodes get transcribed faster
Other recent transcribed episodes
Transcribed and ready to explore now
SpaceX Said to Pursue 2026 IPO
10 Dec 2025
Bloomberg Tech
Don’t Call It a Comeback
10 Dec 2025
Motley Fool Money
Japan Claims AGI, Pentagon Adopts Gemini, and MIT Designs New Medicines
10 Dec 2025
The Daily AI Show
Eric Larsen on the emergence and potential of AI in healthcare
10 Dec 2025
McKinsey on Healthcare
What it will take for AI to scale (energy, compute, talent)
10 Dec 2025
Azeem Azhar's Exponential View
Reducing Burnout and Boosting Revenue in ASCs
10 Dec 2025
Becker’s Healthcare -- Spine and Orthopedic Podcast