今天,2025世界人工智能大会暨人工智能全球治理高级别会议开幕。在上午的主旨演讲中,77岁的“深度学习之父”、图灵奖得主、2024年诺贝尔物理学奖获得者Geoffrey Hinton讨论了人工智能的历史、语言模型的本质以及人类与AI的共通结构。他还特别提到Deepseek,但认为这种方式效率很低。
辛顿回顾了过去60年人工智能发展的两条主流路径:一是以推理为核心的“逻辑主义”,另一是以模拟人类认知为基础的“连接主义”。他认为,语言理解更接近后者,不是符号演绎,而是从模糊中提取出概念之间的关联。他回忆起1985年开发的一个早期小型模型,认为如今的大语言模型本质上是“它的后代”。尽管现在的模型拥有更深的网络结构和更庞大的参数规模,但核心机制并未改变。“语言模型的理解方式,和人类理解语言的方式是一样的。”
辛顿强调,大模型一旦具备比人类更强的智能,仅靠“关掉它”并不能解决问题。他说,有人觉得它们变得聪明后就可以把它们关掉,这是不现实的。它们会劝说操控机器的人不要关掉它们。人类的处境更像是在“养一只老虎当宠物”,要么训练它永远不攻击你,要么把它干掉。
辛顿建议,全球主要国家或AI大国应建立一个由AI安全机构组成的国际社群,研究如何训练高智能AI向善。各国可在自身主权范围内研究,再分享成果。尽管目前还不知道具体怎么做,但这是人类长期面临的最重要问题,且所有国家都能在此领域合作。
辛顿长期致力于神经网络、机器学习、分类监督学习、机器学习理论、细胞神经网络、信息系统应用、马尔可夫决策过程、神经网络、认知科学等方面的研究。2023年,辛顿从谷歌辞职,称生成式人工智能系统的商业应用构成了多重严重威胁,他警告说,从长远来看,自主人工智能系统可能会对人类构成严重威胁。