02:05:15
"如果我们没有足够的紧迫感,我们可能接近终结。"图灵奖得主杰弗里·辛顿(Jeffrey Hinton)——这位被誉为"AI教父"的神经网络先驱,现在正致力于警示世人:超级智能可能在10-20年内出现,而人类很可能已经失去控制权。他的核心警告只有一个:"如果你想了解当下级智能生物的生活是什么样的,不妨去问一只鸡。"
辛顿解释称:"人们这样称呼我,是因为在很长一段时间里,很少有人相信我们可以基于大脑模型构建AI,使其能够学习识别图像中的物体,甚至进行推理。而我坚持这种神经网络方法已有50多年,最终谷歌收购了这项技术。"
在20世纪50年代后的人工智能发展史中,存在两种主流思路:一种认为人类智能核心在于推理,需要基于逻辑构建AI;另一种则是模仿大脑,构建人工神经网络模型。辛顿选择了一条少有人走的路,在神经网络几乎不受重视的年代坚持探索。
正是这条看似孤独的道路,奠定了现代人工智能的基础。2012年,他的学生Ilya Sutskever和Alex Krizhevsky开发的AlexNet模型在图像识别竞赛中大放异彩,最终辛顿带着他们共同创立的小公司DNN Research被谷歌收购。他在谷歌任职10年,75岁时退休以便能自由讨论AI风险。
辛顿清晰地区分了AI带来的两类风险:"第一类是人们滥用AI的风险,这也是大多数短期风险。第二类是AI发展得过于智能,决定不再需要我们的风险。很多人会问第二类风险是真实的吗?是的,这是真实存在的。"
辛顿特别警告了当前监管的不足:"欧洲的AI监管政策中有一个奇怪的条款:这些规定不适用于军事用途的AI。这意味着政府愿意监管公司和普通人,但不愿监管自身。这种局面非常疯狂。"
辛顿详细解释了AI在本质上与人脑的关键区别:"它是数字化的,可以在不同硬件上精确复制同一智能体。一个AI可以在互联网的不同区域收集信息,同时与其他副本共享学习成果,每秒平均数万亿权重。"
相比之下,人类信息传递极其有限。"当我们交流时,每秒只能传输约10比特信息。它们以我们无法企及的效率共享知识。此外,当数字智能'死亡'时,只要存储权重,就能在新硬件上重建,这意味着它们本质上是不朽的。"
这种信息共享能力使数字智能在多个方面超越生物智能,尤其是在学习速度、知识积累和类比推理方面。"一个很好的例子是:我问GPT-4为什么堆肥堆就像原子弹。它最初只谈论时间尺度和能量规模的差异,但当我引导它思考链式反应原理时,它理解了这个深层类比。它们已经学会了压缩信息,看到人类从未注意到的模式和联系。"
被问及何时会出现"超级智能"(比人类在几乎所有方面都聪明的AI),辛顿坦率回答:"估计在10到20年内,甚至可能更短。"他进一步澄清了现有AI与未来超级智能的区别:
阶段 | 特点 | 现状/预测 |
---|---|---|
当前AI | 在特定领域超越人类(如国际象棋、图像识别) | 已实现;GPT-4知识量约为人类数千倍 |
超级智能AI | 在几乎所有智力任务上显著优于人类 | 预计在10-20年内出现 |
一个关键转折点是当他看到谷歌的PaLM系统能解释笑话为何好笑时,"那时我知道AI已经真正理解了语言的深层结构。"这一发现与意识到数字智能在信息共享上的巨大优势相结合,促使他开始严肃关注AI安全问题。
对于超级智能带来的社会影响,辛顿特别担忧大规模失业:"过去新技术并未导致持续失业,比如自动出纳机出现后,银行出纳员并没有失去工作,而是转向了更有趣的角色。但AI不同,它可能完全替代平凡的智力劳动。"
他举了一个例子:"我的侄女负责回复健康服务的投诉信。原本她需要25分钟阅读、思考并回复;现在她只需将投诉扫描给聊天机器人,机器人撰写回复,她只需检查。整个过程只需5分钟,这意味着她可以处理5倍的工作量,或者需要的人员减少为原来的1/5。"
"AI教父辛顿的求生建议:"现在我会说,只要它在物理操作上还远不如我们,一个好选择就是成为一名水管工。直到人形机器人出现前,这都是一个稳妥的职业。""
他指出创意产业、法律助理等职位最易受冲击,并警告财富不平等将加剧:"如果AI能大幅提高生产力并替代大量人力,被替代者境况变差,而提供和使用AI的公司获利丰厚。社会贫富差距越大,社会越不和谐。国际货币基金组织已警告生成式AI可能导致劳动力市场混乱和不平等加剧。"当被问及"你会怎么建议你的儿孙选择职业",他的回答简单而沉重:"去当水管工。"
尽管前景严峻,辛顿并未主张停止AI发展:"它太好了,应用广泛,从医疗到教育,到几乎所有需要数据分析的行业。我们不会停止它的发展,特别是因为军方在积极研发,没有国家愿意在这场竞赛中落伍。"
相反,他呼吁立即行动:
针对AI失控风险,辛顿坦率承认:"我们不知道如何估计AI取代人类的概率。有些人认为低于1%,有些专家认为AI必定会灭绝人类。我认为两种极端观点都过于自信。但存在这种可能性,我们就必须全力以赴研究安全控制。"
在访谈最后,这位77岁的AI先驱透露了他个人的情感挣扎:"我没有为我的孩子们的未来做好情绪上的准备。我知道这可能很糟糕。"
"我们有一段漫长的错误历史,以为自己是特殊的——我们认为自己处于宇宙中心,我们认为自己是按照上帝形象创造的,白种人曾认为他们非常特别。我们只是倾向于认为我们是特别的。但我们必须面对这种可能性:如果我们不做些什么,我们可能接近终结。"
辛顿的立场既非绝望也非盲目乐观。他承认概率不确定:"当我情绪低落时,我认为人类完蛋了;当我情绪好时,我认为我们会找到办法。"但正是这种不确定性要求我们紧急行动。在职业生涯的这个阶段,他选择将精力投入到他视作"最后一项使命"的工作上:让世界了解风险并采取行动。他的核心信息很清晰:我们也许能够安全地发展AI,但这需要巨大的投入、全球协作和紧迫感。"这是可能的。不去尝试,如果只是因为我们不够努力就导致人类灭绝,那真是太疯狂了。"