诺贝尔和图灵奖双料获得者辛顿:担忧AI的“AI教父”

七天记者 颜宏

Canadian AI pioneer Geoffrey Hinton 'flabbergasted' after winning Nobel  Prize

10月8日,瑞典皇家科学院诺贝尔物理学委员会(Nobel Committee for Physics)宣布,将2024年诺贝尔物理学奖授予多伦多大学名誉教授杰佛里·辛顿(Geoffrey Hinton)和普林斯顿大学研究员约翰·霍普菲尔德(John Hopfield),以表彰他们在使用人工神经网络进行机器学习的基础性发现和发明。诺贝尔物理学奖给了非物理学领域的专家,让人工智能界迎来历史性的时刻。

AI教父

诺奖评奖委员会指出这两位获奖者“利用统计物理学的基本概念设计了人工神经网络,该网络可充当联想记忆并在大型数据集中寻找模式。”这种网络已被用于推进物理学研究,并已经成为我们日常生活的一部分,例如面部识别和语言翻译。

在人工神经网络中,大脑的神经元通过具有不同值的节点表示。这些节点通过可以类比为突触的连接相互影响,而这些连接可以变强或变弱。这种网络可以通过训练来优化,例如可加强同时具有较高值的节点之间的连接。身为学霸的霍普菲尔德原本是一名物理学家,跨界进入普林斯顿的分子生物系后研究大脑是如何思考的,并在上个世纪80年代初提出“霍普菲尔德神经网络”(Hopfield network),这是一种结合存储系统和二元系统的神经网络,提供了模拟人类记忆的模型。人在感知到一些事物或经历了某件事后,其记忆会被唤醒,脑海中浮现出越来越清晰的图景。“霍普菲尔德神经网络”也有这个功能,比如科研人员把曾输入神经网络的一张图片加工一下,让它的部分像素缺失,随后将这张图片输入神经网络。经过多次循环,它会神奇地让原图复现,就像人脑将遗忘的事物回忆起来一样。贝尔实验室在1987年成功在“霍普菲尔德神经网络”的基础上研制出了神经网络芯片。

辛顿以“霍普菲尔德神经网络”为基础,开发了一种基于新方法的网络:玻尔兹曼机(Boltzmann Machine)。辛顿使用统计物理学的工具,通过给机器输入案例来训练机器。和一般的软件不同,玻尔兹曼机不是从指令中学习,而是从给定的例子中学习,它可对图像进行分类,或者为它所训练的模式类型创建新的案例。这一技术推动了机器学习的爆炸式发展,掀起了广为人知的深度学习革命。

2018年,被誉为“计算机界诺贝尔奖”之称的图灵奖(ACM Turing Award)授予了人工智能深度学习三巨头——蒙特利尔大学教授、魁北克人工智能机构 Mila 的科学主管Yoshua Bengio,纽约大学教授、Facebook 副总裁和首席 AI 科学家杨立昆(Yann LeCun)和辛顿,这是图灵奖自1966年建立以来少有地一年颁给三位获奖者。而这三位科学家或是独立或是协作开发出了深度学习领域的概念基础,并通过实验验证了令人惊讶的现象,此外,他们还贡献了一些工程进展,展示了深度神经网络的实用优势。近年来,深度学习方法促进计算机视觉、语音识别、自然语言处理和机器人技术等应用领域取得极大突破。其中,辛顿的名声或许更加响亮一些。他是卷积神经网络理论的领军人物,也被视为由ChatGPT掀起的本轮AI技术跃进背后的奠基性科学家,被誉为“AI教父”。

科学世家

辛顿虽然头衔响亮,但经历十分传奇。他曾是剑桥大学的退学生,又在64岁时成为谷歌的“实习生”,和刚毕业的小青年共事。辛顿出生在一个科学世家,他的曾外祖父是英国著名数学家乔治·布尔(George Boole,1815—1864),大家都知道的布尔代数、布尔逻辑,便是以他命名的。布尔将逻辑问题抽象为代数形式,从而使逻辑推理可以在纯粹数学的框架中进行。后来的香农(Claude Shannon)证明了布尔代数和二进制算术可以简化当时在电话交换系统中广泛应用的机电继电器的设计,并于1938年提出了开关电路分析的原理,成为数字计算机理论和数字电路设计理论的创始人,为用电子元件制造现代计算机奠定了基础。而他的父亲家族也是数学家、作家、昆虫学家辈出,辛顿可以说是继承了辛顿家族的优秀男性基因和布尔家族的优秀女性基因。

布尔代数的布尔,《牛虻》作者伏尼契,有关中国土地改革的长篇作品《翻身》的作者韩丁,他的妹妹,曾参与曼哈顿计划的核物理学家,第一位中国绿卡获得者的寒春……原来有着如此深厚的渊源。图片制作:言有三&小满

1947年,辛顿在英国伦敦出生。高中时碰到的一个特别聪明的同学跟他说起,人脑的工作原理就像全息图一样,需要大量的记录入射光被物体多次反射的结果,然后将这些信息存储进一个庞大的数据库中。大脑储存信息的方式与全息图如此类似,而且并非将记忆储存在一个特定的地方,而是在整个神经网络里传播,这一点让他深深着迷,想知道大脑是怎么运作的,这是他人生的关键起点。

辛顿于18岁时进入剑桥大学国王学院学习物理、化学和数学,但一个月后就因数学不好退学。他去伦敦工作了一年,做了各种各样的事情。第二年,他改修建筑学,但只撑了一天。他又改读哲学,不过也是半途而终。再后来,辛顿又转去读物理和生理学,成为当年剑桥大学唯一一个同时学习物理和生理学的学生,因为他想了解大脑是如何工作的。但像赫胥黎这样非常杰出的学者也搞不明白大脑是如何运作的,他最后于1970年拿到了剑桥大学的实验心理学学士学位。

对大学本科学习颇感失望的辛顿毕业后成了一名木匠。他一边做书架、木门,一边思考人类大脑的运作原理。但靠木匠谋生并不是件容易的事情,对了解大脑也没有帮助,辛顿又考虑回到学术界,于1972 年去了苏格兰爱丁堡大学攻读博士,并在那里发现了自己的爱好和专长。那里的希金斯(Christopher Higgins,1923–2004)教授,正在研究神经网络(neural networks)的概念,是一个可以通过数据分析来学习技能的系统,这是辛顿长年累月思考认为可以用机器实现大脑功能的方向。

博士毕业后,辛顿先后在英国的萨塞克斯大学、美国加州大学圣迭戈分校、英国剑桥大学、卡内基梅隆大学等地工作。因为不满当时美国政府的外交政策,特别是对中美洲的干涉(他和妻子收养了两个来自中美洲的孩子),再加上不愿接受美国国防部资助,他在1987年接受了加拿大高级研究所的邀请,以及多伦多大学计算机科学领域的职位,并在加拿大启动了“机器和大脑学习”项目。1996年辛顿当选为加拿大皇家学会院士;1998年当选为英国皇家学会院士。

有了多伦多大学稳定的职位和还算充裕的支持神经网络的研究经费,使他能在这个冷门领域里坚持耕耘三十余年无怨无悔。更为重要的是,随着时间的推移,一些深度学习的信徒们被辛顿所吸引。他培养了不少学生,学生又有学生,加上博士后及合作者,研究神经网络深度学习的人才济济群星闪烁,为人工智能的春天到来做好了准备。

辛顿的著名徒子徒孙们,图片来源:知识分子公众号

2012年,辛顿和他的两名博士生——Alex Krizhevsky 和Ilya Sutskever创建AlexNet模型,通过分析数百万张照片打造出一款可区分动物、物体图片的AlexNet模型,能识别常见物体,如花、狗和汽车,在当年的ImageNet大赛上彻底击败了传统的人工智能算法。当年9月,百度表示愿意以3年共计1200万美元的薪酬雇用辛顿与他的学生们,但辛顿在犹豫后决定采用拍卖的方式来实现自己的价值。他成立了一家只有他们3个人的公司DNN Research作为标的,微软、谷歌、百度和DeepMind是参与竞拍的4家公司,每个人都知道竞拍的真正标的其实就是DNN research的3位科学家。但辛顿本人在谷歌报出4400万美元后主动按下了暂停键,没有给百度继续举牌的机会。事后辛顿解释说在他眼里谷歌是深度学习AI研究的最合适归宿。值得一提的是,辛顿的这两名博士生后来都离开谷歌,其中Ilya Sutskever成为OpenAI的首席科学家。

AI反噬

大名鼎鼎的辛顿进入谷歌公司时已经64岁,但还是需要当几个月的“实习生”,才能被授予“访问科学家”头衔。辛顿加入了由20岁出头的年轻人组成的实习生组,戴上了新实习生们专用的上面带有螺旋桨图案的帽子,并自嘲地说自己“一定是史上最老的实习生。”

一开始,辛顿相信“机器理解和生成语言的方式不如人类处理语言的方式”,但在2023年,随着谷歌、OpenAI通过使用大量数据构建出系统,他的观点发生了变化,此前他认为“AI比人类更聪明”这一现象可能出现在30-50年之后,但现在他发现来得太快了,人类根本没有做好准备。他担心利用AI技术,网络上会出现很多虚假的图片、视频和文字,这可能让人分不清真假。其次,他还担心AI将改变整个人类就业市场,可能导致如律师助理、私人助理、翻译等岗位的消失。在未来,辛顿更担心AI会对人类构成威胁,“因为AI可能通过大量的数据和分析,出现一些令人意想不到的行为。”特别是在谷歌、微软等多家科技巨头争先发展AI技术后,会使针对“AI技术发展”的竞争,让AI系统变得越来越危险。

最终他在2023年宣布从谷歌辞职,以便能够“自由地畅谈AI的风险”。现在的他担心他毕生的工作可能导致人类的终结,并认为其最终使命是警告全世界。

在获奖后的电话会议中,辛顿再次表达了对 AI 技术迅速发展的深切担忧。他强调说:“AI 将会产生巨大影响,类似于工业革命。它不是超越人类的体力,而是增强我们的智力。我们之前没有与比我们更聪明的事物互动的经验。”辛顿承认,AI在医疗、科研和气候变化等领域有着巨大的潜力,但人们也需要对其可能的滥用和意外后果保持警惕。同时,他呼吁科学家、政策制定者和业界领导者之间的更紧密合作,以确保 AI 的发展符合伦理标准。