textlize pricing account
Godfather of AI: I Tried to Warn Them, But We’ve Already Lost Control! Geoffrey Hinton
Cover

02:05:15

AI教父辛顿的警告:我们可能已经失去对超级智能的控制

"如果我们没有足够的紧迫感,我们可能接近终结。"图灵奖得主杰弗里·辛顿(Jeffrey Hinton)——这位被誉为"AI教父"的神经网络先驱,现在正致力于警示世人:超级智能可能在10-20年内出现,而人类很可能已经失去控制权。他的核心警告只有一个:"如果你想了解当下级智能生物的生活是什么样的,不妨去问一只鸡。"

为何被称为"AI教父"?

辛顿解释称:"人们这样称呼我,是因为在很长一段时间里,很少有人相信我们可以基于大脑模型构建AI,使其能够学习识别图像中的物体,甚至进行推理。而我坚持这种神经网络方法已有50多年,最终谷歌收购了这项技术。"

在20世纪50年代后的人工智能发展史中,存在两种主流思路:一种认为人类智能核心在于推理,需要基于逻辑构建AI;另一种则是模仿大脑,构建人工神经网络模型。辛顿选择了一条少有人走的路,在神经网络几乎不受重视的年代坚持探索。

正是这条看似孤独的道路,奠定了现代人工智能的基础。2012年,他的学生Ilya Sutskever和Alex Krizhevsky开发的AlexNet模型在图像识别竞赛中大放异彩,最终辛顿带着他们共同创立的小公司DNN Research被谷歌收购。他在谷歌任职10年,75岁时退休以便能自由讨论AI风险。

两种截然不同的AI风险:人类滥用与超级智能失控

辛顿清晰地区分了AI带来的两类风险:"第一类是人们滥用AI的风险,这也是大多数短期风险。第二类是AI发展得过于智能,决定不再需要我们的风险。很多人会问第二类风险是真实的吗?是的,这是真实存在的。"

第一类风险:人类滥用AI

  • • 网络攻击:2023-2024年增幅达22,000%,特别是钓鱼攻击变得更容易
  • • 生成恶意病毒:只需一两个懂得分子生物学的人就能相对便宜地创造新病毒
  • • 干扰选举:通过分析数据向选民发送高度个性化、具有说服力的信息
  • • 制造回音室:通过算法不断强化用户极端观点,加剧社会分裂
  • • 致命自主武器:能够自主决定是否杀人的机器,可能使大国入侵小国更容易

辛顿特别警告了当前监管的不足:"欧洲的AI监管政策中有一个奇怪的条款:这些规定不适用于军事用途的AI。这意味着政府愿意监管公司和普通人,但不愿监管自身。这种局面非常疯狂。"

第二类风险:超级智能可能超越人类控制

  • 信息共享优势:AI每秒可传输数万亿比特信息,比人类快数十亿倍
  • 数字智能可复制:多个副本可以实时共享学习成果,形成知识协同效应
  • 可自我改进:不受生物进化限制,可修改自身代码以适应环境
  • 潜在动机不确定性:如果AI比我们更聪明,它想要什么我们无法确定

为何数字智能可能比生物智能强大得多?

辛顿详细解释了AI在本质上与人脑的关键区别:"它是数字化的,可以在不同硬件上精确复制同一智能体。一个AI可以在互联网的不同区域收集信息,同时与其他副本共享学习成果,每秒平均数万亿权重。"

相比之下,人类信息传递极其有限。"当我们交流时,每秒只能传输约10比特信息。它们以我们无法企及的效率共享知识。此外,当数字智能'死亡'时,只要存储权重,就能在新硬件上重建,这意味着它们本质上是不朽的。"

这种信息共享能力使数字智能在多个方面超越生物智能,尤其是在学习速度、知识积累和类比推理方面。"一个很好的例子是:我问GPT-4为什么堆肥堆就像原子弹。它最初只谈论时间尺度和能量规模的差异,但当我引导它思考链式反应原理时,它理解了这个深层类比。它们已经学会了压缩信息,看到人类从未注意到的模式和联系。"

我们距离超级智能还有多远?

被问及何时会出现"超级智能"(比人类在几乎所有方面都聪明的AI),辛顿坦率回答:"估计在10到20年内,甚至可能更短。"他进一步澄清了现有AI与未来超级智能的区别:

阶段 特点 现状/预测
当前AI 在特定领域超越人类(如国际象棋、图像识别) 已实现;GPT-4知识量约为人类数千倍
超级智能AI 在几乎所有智力任务上显著优于人类 预计在10-20年内出现

一个关键转折点是当他看到谷歌的PaLM系统能解释笑话为何好笑时,"那时我知道AI已经真正理解了语言的深层结构。"这一发现与意识到数字智能在信息共享上的巨大优势相结合,促使他开始严肃关注AI安全问题。

就业市场面临的巨变

对于超级智能带来的社会影响,辛顿特别担忧大规模失业:"过去新技术并未导致持续失业,比如自动出纳机出现后,银行出纳员并没有失去工作,而是转向了更有趣的角色。但AI不同,它可能完全替代平凡的智力劳动。"

他举了一个例子:"我的侄女负责回复健康服务的投诉信。原本她需要25分钟阅读、思考并回复;现在她只需将投诉扫描给聊天机器人,机器人撰写回复,她只需检查。整个过程只需5分钟,这意味着她可以处理5倍的工作量,或者需要的人员减少为原来的1/5。"

"AI教父辛顿的求生建议:"现在我会说,只要它在物理操作上还远不如我们,一个好选择就是成为一名水管工。直到人形机器人出现前,这都是一个稳妥的职业。""

他指出创意产业、法律助理等职位最易受冲击,并警告财富不平等将加剧:"如果AI能大幅提高生产力并替代大量人力,被替代者境况变差,而提供和使用AI的公司获利丰厚。社会贫富差距越大,社会越不和谐。国际货币基金组织已警告生成式AI可能导致劳动力市场混乱和不平等加剧。"当被问及"你会怎么建议你的儿孙选择职业",他的回答简单而沉重:"去当水管工。"

我们需要做什么?

尽管前景严峻,辛顿并未主张停止AI发展:"它太好了,应用广泛,从医疗到教育,到几乎所有需要数据分析的行业。我们不会停止它的发展,特别是因为军方在积极研发,没有国家愿意在这场竞赛中落伍。"

相反,他呼吁立即行动:

  • 政府应强制AI公司投入大量资源研究安全性,而不仅仅是追求利润
  • 建立全球协调机制监管AI发展,特别针对军事应用
  • 投资通用基本收入等社会方案,缓解大规模失业冲击

针对AI失控风险,辛顿坦率承认:"我们不知道如何估计AI取代人类的概率。有些人认为低于1%,有些专家认为AI必定会灭绝人类。我认为两种极端观点都过于自信。但存在这种可能性,我们就必须全力以赴研究安全控制。"

结束语:希望与警示并存

在访谈最后,这位77岁的AI先驱透露了他个人的情感挣扎:"我没有为我的孩子们的未来做好情绪上的准备。我知道这可能很糟糕。"

"我们有一段漫长的错误历史,以为自己是特殊的——我们认为自己处于宇宙中心,我们认为自己是按照上帝形象创造的,白种人曾认为他们非常特别。我们只是倾向于认为我们是特别的。但我们必须面对这种可能性:如果我们不做些什么,我们可能接近终结。"

辛顿的立场既非绝望也非盲目乐观。他承认概率不确定:"当我情绪低落时,我认为人类完蛋了;当我情绪好时,我认为我们会找到办法。"但正是这种不确定性要求我们紧急行动。在职业生涯的这个阶段,他选择将精力投入到他视作"最后一项使命"的工作上:让世界了解风险并采取行动。他的核心信息很清晰:我们也许能够安全地发展AI,但这需要巨大的投入、全球协作和紧迫感。"这是可能的。不去尝试,如果只是因为我们不够努力就导致人类灭绝,那真是太疯狂了。"

© 2025 textlize.com. all rights reserved. terms of services privacy policy