找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

只需一步,快速开始

查看: 32|回复: 0

神经网络、机器学习?诺贝尔奖得主人工智能科学解析

[复制链接]

2852

主题

0

回帖

5704

积分

管理员

积分
5704
发表于 2024-10-10 16:40:55 | 显示全部楼层 |阅读模式 IP归属地:亚太地区
周二,诺贝尔物理学奖授予了两位科学家,以表彰他们的发现,为 ChatGPT 等广受欢迎的工具所使用的人工智能奠定了基础。
诺贝尔奖评审团表示,被誉为“人工智能教父”的英裔加拿大人杰弗里·辛顿和美国物理学家约翰·霍普菲尔德因“利用人工神经网络实现机器学习的发现和发明”而获得该奖。
但这些是什么?这一切意味着什么?以下是一些答案。
什么是神经网络和机器学习?
牛津大学机器学习专家马克范德威尔克告诉法新社,人工神经网络是一种“松散地受到”人类大脑启发的数学结构。
我们的大脑有一个称为神经元的细胞网络,它们通过相互发送信号来对外界刺激(例如我们眼睛看到的事物或耳朵听到的事物)做出反应。
当我们学习事物时,神经元之间的一些连接变得更强,而另一些连接变得更弱。
与更像阅读食谱的传统计算不同,人工神经网络大致模拟了这一过程。
生物神经元被有时被称为“节点”的简单计算所取代,它们所学习的传入刺激被训练数据所取代。
这个想法是,这可以让网络随着时间的推移而学习 - 因此称为机器学习。
人工神经网络是人工智能的有力工具。
霍普菲尔德发现了什么?
但在机器能够学习之前,人类的另一个特性是必需的:记忆。
你是否曾经费力地记住一个单词?想想鹅。你可能会反复使用类似的单词——goon、good、ghoul——直到你想起鹅。
“如果你得到的模式并不是你需要记住的东西,你就需要填补空白,”范德威尔克说。
“这就是你记住特定记忆的方式。”
这就是物理学家在 20 世纪 80 年代初开发的“霍普菲尔德网络”(也称为“联想记忆”)背后的想法。
霍普菲尔德的贡献意味着,当人工神经网络得到一些稍微错误的信息时,它可以循环先前存储的模式来找到最接近的匹配。
事实证明,这是人工智能向前迈出的一大步。
被誉为“人工智能教父”的英裔加拿大科学家杰弗里·辛顿创造了玻尔兹曼机。
那么 Hinton 怎么样?
1985 年,辛顿公布了他对该领域的贡献(或者至少是其中之一),称为玻尔兹曼机。
该概念以 19 世纪物理学家路德维希·玻尔兹曼 (Ludwig Boltzmann) 的名字命名,引入了随机性元素。
这种随机性最终就是为什么当今的人工智能图像生成器可以对同一提示产生无穷无尽的变化。
辛顿还表示,网络的层数越多,“其行为就越复杂”。
法国机器学习研究员弗朗西斯·巴赫告诉法新社,这反过来使得“有效地学习期望的行为”变得更加容易。
它有什么用途?
尽管这些想法存在,但许多科学家在 20 世纪 90 年代对该领域失去了兴趣。
机器学习需要能够处理大量信息的强大计算机。这些算法需要数百万张狗的图片才能区分狗和猫。
物理学家约翰·霍普菲尔德让神经网络“存储和重建数据中的图像和其他类型的模式”
因此,直到 2010 年代才出现了一波突破,“彻底改变了与图像处理和自然语言处理相关的一切”,巴赫说。
从阅读医学扫描结果到指挥自动驾驶汽车,从预测天气到制作深度伪造作品,人工智能的用途如今已不胜枚举。
但它真的是物理学吗?
辛顿此前已经获得了图灵奖,该奖被认为是计算机科学领域的诺贝尔奖。
但一些专家表示,他获得物理学领域的诺贝尔奖是当之无愧的,这开启了人工智能科学之路。
法国研究员Damien Querlioz指出,这些算法最初“受到物理学的启发,将能量的概念转移到计算领域”。
范德威尔克表示,首届诺贝尔“人工智能方法论发展奖”不仅承认了获奖者,也承认了物理学界的贡献。
尽管 ChatGPT 有时可以让人工智能看起来真正具有创造力,但记住机器学习的“机器”部分也很重要。
“这里没有什么魔法发生,”范德威尔克强调道。
“从根本上来说,人工智能中的一切都是乘法和加法。”

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|NewCET |网站地图

GMT+8, 2024-11-22 09:31 , Processed in 0.026307 second(s), 21 queries .

Powered by NewCET 1.0

Copyright © 2012-2024, NewCET.

快速回复 返回顶部 返回列表