诺贝尔物理学奖授予为人工智能奠定基础的神经网络先驱
2024 年诺贝尔物理学奖授予科学家约翰·霍普菲尔德和杰弗里·辛顿,以表彰他们“为利用人工神经网络进行机器学习做出的基础性发现和发明”。霍普菲尔德和辛顿受到物理学和生物学思想的启发,开发了能够记忆和学习数据模式的计算机系统。尽管从未直接合作过,但他们在彼此工作的基础上,为当前机器学习和人工智能(AI) 的蓬勃发展奠定了基础。
什么是神经网络?(它们与物理有什么关系?)
我们今天使用的大部分人工智能技术都基于人工神经网络。
就像大脑中的神经元细胞通过突触连接一样,人工神经网络中的数字神经元以各种配置连接在一起。每个神经元的作用并不大。相反,神奇之处在于它们之间连接的模式和强度。
人工神经网络中的神经元由输入信号“激活”。这些激活信号从一个神经元级联到下一个神经元,从而可以转换和处理输入信息。因此,网络可以执行分类、预测和决策等计算任务。
机器学习的大部分历史都是关于寻找更加复杂的方法来形成和更新人工神经元之间的连接。
虽然将节点系统连接在一起以存储和处理信息的基本思想来自生物学,但用于形成和更新这些链接的数学来自物理学。
具有记忆能力的网络
约翰·霍普菲尔德(生于 1933 年)是美国理论物理学家,他在生物物理学领域做出了重要贡献。然而,1982 年的诺贝尔物理学奖是因开发霍普菲尔德网络而获得的。
霍普菲尔德网络是最早的人工神经网络之一。受神经生物学和分子物理学原理的启发,这些系统首次展示了计算机如何使用节点“网络”来记忆和回忆信息。
Hopfield 开发的网络可以记忆数据(例如一组黑白图像)。当网络收到类似图像的提示时,这些图像可以通过联想被“回忆起来”。
尽管实际用途有限,但霍普菲尔德网络证明了这种类型的 ANN 可以以新的方式存储和检索数据。它们为 Hinton 后来的工作奠定了基础。
能够学习的机器
杰夫·辛顿(生于 1947 年)有时被称为“人工智能教父”之一,他是一位英国裔加拿大计算机科学家,为该领域做出了许多重要贡献。2018 年,他与 Yoshua Bengio 和 Yann LeCun 一起获得了图灵奖(计算机科学界的最高荣誉),以表彰他为推动机器学习(特别是深度学习)的发展所做的努力。
然而,诺贝尔物理学奖是专门表彰他与 Terrence Sejnowski 和其他同事于 1984 年合作开发玻尔兹曼机的工作。
这些是 Hopfield 网络的扩展,它展示了机器学习的理念——一种让计算机不从程序员那里学习,而是从数据示例中学习的系统。Hinton 借鉴了统计物理学能量动力学中的想法,展示了这种早期的生成计算机模型如何通过展示要记住的事物示例来学习随时间存储数据。
玻尔兹曼机与之前的霍普菲尔德网络一样,并没有立即投入实际应用。不过,一种经过修改的形式(称为受限玻尔兹曼机)在一些应用问题中很有用。
更重要的是概念上的突破,即人工神经网络可以从数据中学习。Hinton 继续发展这个想法。后来,他发表了关于反向传播(现代机器学习系统中使用的学习过程)和卷积神经网络(当今用于处理图像和视频数据的 AI 系统的主要神经网络类型)的有影响力的论文。
为什么是这个奖项?
与当今的人工智能壮举相比,霍普菲尔德网络和玻尔兹曼机似乎异想天开。霍普菲尔德的网络仅包含 30 个神经元(他试图制作一个包含 100 个节点的网络,但对于当时的计算资源来说太多了),而 ChatGPT 等现代系统可以拥有数百万个神经元。然而,今天的诺贝尔奖凸显了这些早期贡献对该领域的重要性。
虽然人工智能最近的快速发展(大多数人都熟悉 ChatGPT 等生成式人工智能系统)似乎为神经网络的早期支持者们辩护,但 Hinton 至少表达了担忧。2023 年,在辞去谷歌人工智能部门长达十年的工作后,他说他对发展速度感到害怕,并加入了越来越多呼吁更积极主动的人工智能监管的声音。
获得诺贝尔奖后,辛顿表示,人工智能将“像工业革命一样,但它将超越的不是我们的身体能力,而是我们的智力能力。”他还表示,他仍然担心他的工作成果可能导致“比我们更聪明的系统最终可能掌控一切”。
页:
[1]