两位科学家因推动机器学习的发现而荣获诺贝尔物理学奖
两位人工智能先驱——约翰·霍普菲尔德和杰弗里·辛顿——因帮助创建机器学习的基础而获得周二诺贝尔物理学奖,机器学习彻底改变了我们工作和生活方式,但也给人类带来了新的威胁。被誉为人工智能教父的辛顿是加拿大和英国公民,在多伦多大学工作;霍普菲尔德是美国人,在普林斯顿大学工作。
诺贝尔物理学奖委员会成员马克·皮尔斯说:“这两位先生确实是先驱者。”
瑞典皇家科学院诺贝尔委员会的艾伦·穆恩斯表示,研究人员率先发明的人工神经网络(受人类大脑神经元启发而形成的相互连接的计算机节点)被广泛应用于科学和医学领域,“也已成为我们日常生活的一部分”。
加入我们的新WhatsApp 频道!及时了解 Science X 的最新科学新闻。
霍普菲尔德 1982 年的这项研究为辛顿的这项研究奠定了基础。他告诉美联社:“我对它所产生的影响一直感到惊讶。”
辛顿预测,人工智能最终将对文明产生“巨大影响”,带来生产力和医疗保健的改善。
他在与记者和瑞典皇家科学院官员的公开演讲中表示:“这将与工业革命相媲美。”
“我们从未体验过拥有比我们更聪明的事物会是什么感觉。从很多方面来说,这都会是一件很棒的事情,”Hinton 说。
“但我们也不得不担心一些可能出现的不良后果,尤其是事态失控的威胁。”
警告人工智能风险
诺贝尔委员会还提到了对可能出现的负面影响的担忧。
穆恩斯表示,尽管人工智能“好处多多,但其快速发展也引发了人们对未来的担忧。人类有责任以安全和合乎道德的方式使用这项新技术,为人类谋取最大利益。”
欣顿辞去了谷歌的一个职位,以便能够更自由地谈论他参与创造的技术的危险性,他也担心这一点。
辛顿说:“我担心,这种情况的总体后果可能是比我们更智能的系统最终会掌控一切。”
霍普菲尔德曾签署过研究人员早期的请愿书,呼吁严格控制该技术。他将病毒和核能的风险和好处与病毒和核能进行了比较,病毒和核能既能帮助社会,又能危害社会。在普林斯顿的新闻发布会上,他提到了这些担忧,并提到了乔治·奥威尔的《1984》中想象的反乌托邦,以及诺贝尔物理学奖得主库尔特·冯内古特的《猫的摇篮》中一位物理学家无意中创造的虚构世界末日。
两位获胜者均未回家接到电话
霍普菲尔德与妻子住在英格兰汉普郡的一间小屋里,他说,喝完咖啡、接种流感疫苗后,他打开电脑,开始忙碌起来。
他说:“我这辈子从没见过这么多电子邮件。”他补充说,一瓶香槟和一碗汤已经准备好了,但他怀疑城里有没有物理学家同行来参加庆祝活动。
欣顿表示他对这一荣誉感到震惊。
诺贝尔委员会打电话联系到他时,他说:“我惊呆了。我根本不知道会发生这种事。”他说他当时住在一家廉价旅馆,没有网络。
Hinton 的工作被认为是人工智能的“诞生”
现年 76 岁的 Hinton 在 20 世纪 80 年代帮助开发了一种名为反向传播的技术,该技术有助于训练机器通过微调错误直到错误消失来“学习”。这类似于学生学习的方式,对初始解决方案进行评分,找出缺陷并返回进行修复和修正。这个过程一直持续到答案与网络版本的现实相匹配。
欣顿的门徒尼克·弗罗斯特 (Nick Frosst) 是欣顿在谷歌多伦多人工智能部门聘请的第一位员工,他说,欣顿作为一名心理学家有着非传统的背景,他还涉足木工,并且对大脑的运作方式非常好奇。
弗罗斯特说:“我认为,他的幽默感和对回答基本问题的真诚兴趣是他作为一名科学家取得成功的关键。”
他并没有止步于20世纪80年代的开创性工作。
“他一直在尝试疯狂的事情,有些很成功,有些则不然,”弗罗斯特说。“但它们都为该领域的成功做出了贡献,并激励其他研究人员也去尝试新事物。”
2012 年,多伦多大学的 Hinton 团队利用神经网络赢得了著名的 ImageNet 计算机视觉大赛,令同行们惊叹不已。此举引发了一大批效仿者。斯坦福大学计算机科学家、ImageNet 创始人李飞飞表示,这“在事后看来,以及在人工智能历史上,都是一个非常非常重要的时刻”。
她说:“许多人认为这是现代人工智能的诞生。”
辛顿与人工智能科学家 Yoshua Bengio 和 Yann LeCun 共同获得了 2019 年计算机科学的最高奖项——图灵奖。
2019 年,辛顿告诉美联社:“很长一段时间以来,人们都认为我们三个人在做的事情是无稽之谈。我想对年轻的研究人员说,如果每个人都说你在做的事情很愚蠢,也不要气馁。”
随着科技行业开始利用人工智能创新,Hinton 的许多前学生和合作者都跟随他进入了科技行业,有些人创办了自己的人工智能公司,包括 Frosst 的 Cohere 和 ChatGPT 制造商 OpenAI。Hinton 说他在日常生活中使用机器学习工具。
“每当我想知道任何问题的答案时,我都会去问 GPT-4,”Hinton 在诺贝尔奖颁奖典礼上说道。“我并不完全信任它,因为它会产生幻觉,但在几乎所有事情上,它都不是很好的专家。而这非常有用。”
物理学奖对人工智能的先驱性贡献意义重大
诺贝尔委员会表示,91 岁的霍普菲尔德创造了一种联想记忆,可以存储和重建图像以及其他类型的数据模式。
正如辛顿从心理学转行到该领域一样,霍普菲尔德强调尖端科学是如何跨越物理、生物和化学等科学领域的边界,而不是研究人员局限于自己的领域。他说,这就是为什么这个奖项是一个物理学奖,并指出他的神经网络借鉴了凝聚态物理学。
霍普菲尔德说,对于科学领域中存在的大型复杂问题,“如果你没有物理动力,你就无法解决这类问题”。
李飞飞表示,虽然没有计算机科学领域的诺贝尔奖,但向人工智能先驱颁发传统科学奖意义重大,表明学科之间的界限已经模糊。
对人工智能风险的分歧
并非所有的同行都认同诺贝尔奖获得者关于他们所参与创造的技术的风险的观点。
弗罗斯特曾与辛顿就人工智能的风险进行过多次“激烈的辩论”,他不同意辛顿的一些警告,但不同意他公开解决这些问题的意愿。
“我们主要在时间尺度和他所警告的具体技术上存在分歧,”弗罗斯特说。“我不认为当今存在的神经网络和语言模型会构成生存风险。”
本吉奥长期以来一直对人工智能的风险发出警告,他表示,真正令他和辛顿感到担忧的是“失去人类的控制”,以及当人工智能系统比人类更聪明时,它们是否会采取道德行为。
“我们不知道这些问题的答案,”他说。“我们应该在制造这些机器之前确保自己知道答案。”
当被问及诺贝尔奖委员会在评奖时是否会考虑到 Hinton 的警告时,Bengio 否认了这一点,他说:“我们谈论的是早期的研究,当时我们认为一切都会很美好。”
诺贝尔奖颁奖典礼于周一拉开帷幕,美国人维克多·安布罗斯和加里·鲁夫昆获得诺贝尔医学奖。周三将颁发化学奖,周四将颁发文学奖。周五将颁发诺贝尔和平奖,10 月 14 日将颁发经济学奖。
该奖项的奖金为 1100 万瑞典克朗(100 万美元),来自该奖项创始人、瑞典发明家阿尔弗雷德·诺贝尔的遗赠。获奖者将受邀于 12 月 10 日(诺贝尔逝世周年纪念日)参加颁奖典礼。
观看 2024 年诺贝尔奖公告
诺贝尔委员会公告:
瑞典皇家科学院决定将 2024 年诺贝尔物理学奖授予
John J. Hopfield,美国新泽西州普林斯顿大学
Geoffrey E. Hinton,加拿大多伦多大学
“通过人工神经网络实现机器学习的基础性发现和发明”
他们利用物理学训练人工神经网络
今年的两位诺贝尔物理学奖得主利用物理学工具开发出的方法,为当今强大的机器学习奠定了基础。约翰·霍普菲尔德 (John Hopfield) 发明了一种联想记忆,可以存储和重建图像和其他类型的数据模式。杰弗里·辛顿 (Geoffrey Hinton) 发明了一种可以自主查找数据属性的方法,从而执行诸如识别图片中特定元素等任务。
当我们谈论人工智能时,我们通常指的是使用人工神经网络的机器学习。这项技术最初的灵感来自大脑的结构。在人工神经网络中,大脑的神经元由具有不同值的节点表示。这些节点通过可以比作突触的连接相互影响,这些连接可以变得更强或更弱。网络的训练方式包括,在同时具有高值的节点之间建立更强的连接。今年的获奖者从 1980 年代开始就对人工神经网络进行了重要的研究。
约翰·霍普菲尔德发明了一种网络,它使用一种保存和重新创建模式的方法。我们可以将节点想象成像素。霍普菲尔德网络利用物理学来描述材料由于原子自旋而产生的特性——这种特性使每个原子都成为一个微小的磁铁。整个网络的描述方式相当于物理学中自旋系统的能量,并通过寻找节点之间连接的值来进行训练,以便保存的图像具有较低的能量。当霍普菲尔德网络被输入扭曲或不完整的图像时,它会有条不紊地处理节点并更新它们的值,从而使网络的能量下降。因此,网络逐步找到与输入的不完美图像最相似的保存图像。
杰弗里·辛顿 (Geoffrey Hinton) 以霍普菲尔德网络为基础,创建了一个采用不同方法的新网络:玻尔兹曼机。它可以学习识别给定类型数据中的特征元素。辛顿使用了统计物理学的工具,统计物理学是一门由许多类似组件构建的系统科学。通过输入机器运行时很可能出现的示例来训练机器。玻尔兹曼机可用于对图像进行分类,或创建训练模式类型的新示例。辛顿在此基础上继续发展,帮助开启了机器学习的爆炸式发展。
诺贝尔物理学奖委员会主席艾伦·穆恩斯表示:“获奖者的工作已经产生了巨大的效益。在物理学领域,我们将人工神经网络应用于广泛的领域,例如开发具有特定属性的新材料。”
2024 年诺贝尔物理学奖
今年的获奖者利用物理学工具构建了一些方法,为当今强大的机器学习奠定了基础。约翰·霍普菲尔德 (John Hopfield) 创建了一种可以存储和重建信息的结构。杰弗里·辛顿 (Geoffrey Hinton) 发明了一种可以独立发现数据属性的方法,这种方法对于目前使用的大型人工神经网络至关重要。
他们利用物理学来寻找信息中的模式
许多人都体验过计算机如何翻译语言、解释图像甚至进行合理的对话。但可能不太为人所知的是,这种技术长期以来对研究非常重要,包括对大量数据的分类和分析。机器学习的发展在过去十五到二十年里呈爆炸式增长,它利用了一种称为人工神经网络的结构。如今,当我们谈论人工智能时,我们通常指的就是这种技术。
尽管计算机无法思考,但机器现在可以模仿记忆和学习等功能。今年的物理学奖得主帮助实现了这一点。他们利用物理学的基本概念和方法,开发了利用网络结构处理信息的技术。
机器学习不同于传统软件,传统软件的工作原理类似于一种食谱。软件接收数据,根据清晰的描述进行处理并产生结果,就像有人收集原料并按照食谱加工,制作出蛋糕一样。与此不同,在机器学习中,计算机通过示例进行学习,使其能够解决过于模糊和复杂而无法通过分步说明进行管理的问题。一个例子是解释图片以识别其中的物体。
模仿大脑
人工神经网络使用整个网络结构来处理信息。其灵感最初来自于对大脑工作原理的理解。20 世纪 40 年代,研究人员开始围绕大脑神经元和突触网络背后的数学原理进行推理。另一个谜题来自心理学,这要归功于神经科学家唐纳德·赫布的假说,即学习是如何发生的,因为神经元之间的联系在协同工作时会得到加强。
后来,人们尝试通过建立计算机模拟的人工神经网络来重现大脑网络的功能。在这些神经网络中,大脑的神经元由赋予不同值的节点模拟,而突触则由节点之间的连接表示,这些连接可以变得更强或更弱。唐纳德·赫布的假设仍然被用作通过称为训练的过程更新人工网络的基本规则之一。
20 世纪 60 年代末,一些令人沮丧的理论结果导致许多研究人员怀疑这些神经网络永远不会有任何实际用途。然而,人们对人工神经网络的兴趣在 20 世纪 80 年代被重新唤醒,当时有几项重要的想法产生了影响,其中包括今年获奖者的研究成果。
联想记忆
想象一下,你正在努力记住一个很少使用的非常不寻常的单词,比如电影院和演讲厅中常见的倾斜地板。你搜索记忆。它类似于 ramp... 也许是 rad...ial?不,不是那个。Rake,就是这样!
这种通过搜索相似单词来找到正确单词的过程让人想起物理学家约翰·霍普菲尔德 (John Hopfield) 于 1982 年发现的联想记忆。霍普菲尔德网络可以存储模式,并有一种方法可以重新创建这些模式。当网络获得不完整或略有失真的模式时,该方法可以找到最相似的存储模式。
霍普菲尔德之前曾利用他的物理学背景探索分子生物学的理论问题。当他被邀请参加一次神经科学会议时,他接触到了对大脑结构的研究。他对所学内容非常着迷,并开始思考简单神经网络的动态。当神经元共同作用时,它们会产生新的强大特性,而这些特性对于只关注网络各个组成部分的人来说是无法察觉的。
1980 年,霍普菲尔德离开了普林斯顿大学,他的研究兴趣让他远离了物理学同事们的研究领域,他搬到了美国大陆的另一边。他接受了加州理工学院(位于南加州帕萨迪纳)的化学和生物学教授职位。在那里,他可以免费使用计算机资源进行实验并发展他的神经网络思想。
然而,他并没有放弃物理学的基础,在那里,他从物理学中获得了灵感,他理解了由许多小组件共同作用的系统如何产生新的有趣现象。他特别受益于对磁性材料的了解,这些材料由于原子自旋而具有特殊的特性——这种特性使每个原子都成为一个微小的磁铁。相邻原子的自旋相互影响;这可以形成自旋方向相同的域。他能够利用描述材料在自旋相互影响时如何发展的物理学,创建一个带有节点和连接的模型网络。
网络以横向方式保存图像
Hopfield 构建的网络的节点都通过不同强度的连接连接在一起。每个节点都可以存储一个单独的值——在 Hopfield 的第一部作品中,这个值可以是 0 或 1,就像黑白图片中的像素一样。
Hopfield 用一种相当于物理学中自旋系统能量的属性来描述网络的整体状态;能量是使用一个公式计算的,该公式使用了节点的所有值以及它们之间连接的所有强度。Hopfield 网络的编程方法是将图像输入到节点,节点被赋予黑色 (0) 或白色 (1) 的值。然后使用能量公式调整网络的连接,以便保存的图像获得较低的能量。当另一个模式被输入到网络中时,有一个规则是逐个检查节点,并检查如果该节点的值发生变化,网络是否具有较低的能量。如果结果发现如果黑色像素变为白色,能量就会降低,它会改变颜色。这个过程一直持续到不可能找到任何进一步的改进。当达到这一点时,网络通常会重现它所训练的原始图像。
如果您只保存一个模式,这可能看起来并不那么引人注目。也许您想知道为什么不直接保存图像本身并将其与正在测试的另一幅图像进行比较,但 Hopfield 的方法很特别,因为可以同时保存多张图片,并且网络通常可以区分它们。
霍普菲尔德将搜索网络中保存的状态比作将球滚过山峰和山谷,摩擦力会减慢球的运动速度。如果球掉落在某个特定位置,它将滚入最近的山谷并停在那里。如果网络获得的模式接近于已保存的模式之一,它将以同样的方式继续向前移动,直到它最终到达能量景观中的山谷底部,从而找到其记忆中最接近的模式。
Hopfield 网络可用于重新创建包含噪声或已被部分删除的数据。
Hopfield 和其他人继续完善 Hopfield 网络功能的细节,包括可以存储任何值的节点,而不仅仅是零或一。如果你将节点视为图片中的像素,它们可以有不同的颜色,而不仅仅是黑色或白色。改进的方法使得保存更多图片成为可能,即使它们非常相似,也可以区分它们。只要它是由许多数据点构建的,就可以识别或重建任何信息。
使用十九世纪物理学进行分类
记住一个图像是一回事,但解释它所描绘的内容则需要更多努力。
即使是很小的孩子也可以指着不同的动物自信地说出它是狗、猫还是松鼠。他们偶尔可能会说错,但很快他们几乎每次都能说对。即使没有看到任何图表或物种或哺乳动物等概念的解释,孩子也可以学会这一点。在遇到每种动物的几个例子后,不同的类别在孩子的脑海中就形成了。人们通过体验周围的环境,学会识别猫、理解单词或进入房间并注意到某些东西发生了变化。
当霍普菲尔德发表关于联想记忆的文章时,杰弗里·辛顿正在美国匹兹堡的卡内基梅隆大学工作。他之前曾在英格兰和苏格兰学习过实验心理学和人工智能,他想知道机器是否能学会以类似于人类的方式处理模式,找到自己的类别来对信息进行分类和解释。辛顿与他的同事特伦斯·塞诺夫斯基一起,从霍普菲尔德网络开始,并利用统计物理学的思想对其进行扩展,构建出了一些新的东西。
统计物理学描述的是由许多相似元素组成的系统,例如气体中的分子。追踪气体中的所有单个分子是困难的,甚至是不可能的,但可以将它们作为一个整体来考虑,以确定气体的总体特性,如压力或温度。气体分子以不同的速度在其体积中扩散,并仍然具有相同的集体特性,这有很多潜在的方式。
可以使用统计物理学分析各个组件可以共同存在的状态,并计算出它们发生的概率。有些状态比其他状态更有可能发生;这取决于可用能量的数量,这在 19 世纪物理学家路德维希·玻尔兹曼 (Ludwig Boltzmann) 的一个方程中有所描述。辛顿的网络利用了该方程,该方法于 1985 年以引人注目的玻尔兹曼机名称发表。
识别同一类型的新示例
玻尔兹曼机通常与两种不同类型的节点一起使用。信息被馈送到一组节点,这些节点称为可见节点。其他节点形成隐藏层。隐藏节点的值和连接也对整个网络的能量有贡献。
该机器通过应用规则来运行,每次更新一个节点的值。最终,机器将进入一种状态,其中节点的模式可以改变,但整个网络的属性保持不变。然后,每个可能的模式将具有特定的概率,该概率由网络能量根据玻尔兹曼方程确定。当机器停止时,它已经创建了一个新的模式,这使得玻尔兹曼机成为生成模型的早期例子。
波尔兹曼机可以学习——不是通过指令,而是通过给出的例子。它通过更新网络连接中的值进行训练,以便训练时输入到可见节点的示例模式在机器运行时具有最高的出现概率。如果在训练过程中多次重复相同的模式,则该模式的概率甚至更高。训练还会影响输出与机器训练的示例相似的新模式的概率。
经过训练的玻尔兹曼机能够识别出它之前未见过的信息中的熟悉特征。想象一下,当你遇到朋友的兄弟姐妹时,你立刻就能看出他们一定是亲戚。同样,如果一个全新的示例属于训练材料中的某个类别,玻尔兹曼机也能识别它,并将其与不相似的材料区分开来。
在其原始形式中,波尔兹曼机效率相当低,需要很长时间才能找到解决方案。当它以各种方式开发时,事情变得更加有趣,而欣顿一直在探索这一点。后来的版本已经变得稀疏,因为一些单元之间的连接已被移除。事实证明,这可能会使机器更有效率。
20 世纪 90 年代,许多研究人员对人工神经网络失去了兴趣,但 Hinton 是继续在该领域工作的研究人员之一。他还帮助开启了令人兴奋的新一轮成果热潮;2006 年,他与同事 Simon Osindero、Yee Whye Teh 和 Ruslan Salakhutdinov 开发了一种使用一系列逐层叠加的玻尔兹曼机对网络进行预训练的方法。这种预训练为网络中的连接提供了更好的起点,从而优化了其训练以识别图片中的元素。
波尔兹曼机通常用作大型网络的一部分。例如,它可以根据观众的喜好推荐电影或电视剧。
机器学习的现在和未来
凭借自 20 世纪 80 年代以来的工作,约翰·霍普菲尔德 (John Hopfield) 和杰弗里·辛顿 (Geoffrey Hinton) 为 2010 年左右开始的机器学习革命奠定了基础。
我们现在所见证的发展是通过获取可用于训练网络的大量数据以及计算能力的大幅提升而实现的。当今的人工神经网络通常非常庞大,由多层构成。这些被称为深度神经网络,其训练方式称为深度学习。
快速浏览一下霍普菲尔德 1982 年发表的关于联想记忆的文章,可以对这一发展提供一些看法。在这篇文章中,他使用了一个有 30 个节点的网络。如果所有节点都相互连接,则有 435 个连接。节点有自己的值,连接有不同的强度,总共有不到 500 个参数需要跟踪。他还尝试过一个有 100 个节点的网络,但考虑到他当时使用的计算机,这太复杂了。我们可以将其与当今的大型语言模型进行比较,这些模型被构建为可以包含超过一万亿(一百万亿)参数的网络。
目前,许多研究人员正在开发机器学习的应用领域。哪一个领域最有前景还有待观察,同时围绕这项技术的开发和使用的伦理问题也引发了广泛的讨论。
由于物理学为机器学习的发展贡献了工具,因此有趣的是,物理学作为一个研究领域也受益于人工神经网络。机器学习早已应用于我们可能熟悉的领域,从以前的诺贝尔物理学奖中就可以看出。其中包括使用机器学习来筛选和处理发现希格斯粒子所需的大量数据。其他应用包括降低碰撞黑洞引力波测量中的噪声,或寻找系外行星。
近年来,该技术也开始用于计算和预测分子和材料的特性,例如计算决定其功能的蛋白质分子结构,或确定哪种新材料可能具有最佳特性,以用于更高效的太阳能电池。
页:
[1]