Josiah02 发表于 2024-10-30 21:30:08

什么是人工智能超级智能?它会毁灭人类吗?它真的快要到来了吗?

2014 年,英国哲学家尼克·博斯特罗姆出版了一本关于人工智能未来的书,书名不祥,叫做《超级智能:路径、危险、策略》。这本书对宣传先进人工智能系统(比人类更强大的“超级智能”)有朝一日可能统治世界并摧毁人类这一观点产生了巨大影响。
十年后,OpenAI 老板 Sam Altman 表示超级智能可能只剩下“几千天”的距离。一年前,Altman 的 OpenAI 联合创始人 Ilya Sutskever 在公司内部成立了一个团队,专注于“安全超级智能”,但他和他的团队现在已经筹集了 10 亿美元来创建自己的初创公司以实现这一目标。
他们到底在说什么?广义上讲,超级智能是指比人类更聪明的任何东西。但要解释其在实践中可能意味着什么,可能会有点棘手。
不同类型的人工智能
在我看来,思考人工智能不同级别和不同种类智能的最有用的方法是由美国计算机科学家梅雷迪斯·林格尔·莫里斯 (Meredith Ringel Morris) 和她在谷歌的同事开发的。
他们的框架列出了人工智能性能的六个级别:非人工智能、新兴人工智能、称职人工智能、专家人工智能、大师人工智能和超人人工智能。该框架还对可以执行小范围任务的狭义系统和更通用的系统进行了重要区分。
狭义的非人工智能系统类似于计算器,它根据一组明确编程的规则执行各种数学任务。
目前已经有很多非常成功的狭义人工智能系统。莫里斯以 1997 年击败世界冠军加里·卡斯帕罗夫的深蓝国际象棋程序为例,说明了大师级狭义人工智能系统。
有些狭义系统甚至拥有超人的能力。例如, Alphafold利用机器学习来预测蛋白质分子的结构,其发明者今年获得了诺贝尔化学奖。
那么通用系统呢?这些软件可以处理更广泛的任务,包括学习新技能等。
通用的非人工智能系统可能类似于亚马逊的 Mechanical Turk:它可以做很多事情,但它通过询问真人来做。
总体而言,通用人工智能系统远不如狭义人工智能系统先进。根据莫里斯的说法,ChatGPT 等聊天机器人背后的最先进语言模型是通用人工智能,但它们目前处于“新兴”水平(意味着它们“相当于或略优于不熟练的人类”),尚未达到“熟练”水平(相当于 50% 的熟练成年人)。
所以按照这个推算,我们距离通用超级智能还有一段距离。
人工智能现在有多智能?
正如莫里斯指出的那样,准确确定任何给定系统的位置取决于可靠的测试或基准。
根据我们的基准,诸如DALL-E之类的图像生成系统可能处于大师级别(因为它可以生成 99% 的人类无法绘制的图像),或者可能正在兴起(因为它会生成人类不会生成的错误,例如变异的手和不可能的物体)。
甚至关于当前系统的能力也存在很大争议。一篇著名的 2023 年论文认为GPT-4 展现了“通用人工智能的火花”。
OpenAI 表示,其最新的语言模型o1可以“执行复杂的推理”并且在许多基准测试中“可与人类专家的表现相媲美”。
然而,苹果研究人员最近发表的一篇论文发现,o1 和许多其他语言模型在解决真正的数学推理问题时存在很大困难。他们的实验表明,这些模型的输出似乎类似于复杂的模式匹配,而不是真正的高级推理。这表明超级智能并不像许多人所说的那样迫在眉睫。
人工智能会变得越来越聪明吗?
一些人认为,过去几年人工智能的快速发展速度将持续甚至加速。科技公司正在人工智能硬件和功能上投资数千亿美元,因此这似乎并非不可能。
如果这种情况真的发生,我们确实可能在 Sam Altman 提出的“几千天”内看到通用超级智能(用更不科幻的术语来说,也就是十年左右)。Sutskever 和他的团队在他们的超级对齐文章中提到了类似的时间框架。
人工智能领域最近的许多成功都源于一种名为“深度学习”的技术的应用,简单来说,这种技术可以在海量数据中找到关联模式。事实上,今年的诺贝尔物理学奖被授予约翰·霍普菲尔德和“人工智能教父”杰弗里·辛顿,以表彰他们发明的霍普菲尔德网络和玻尔兹曼机,它们是当今使用的许多强大深度学习模型的基础。
ChatGPT 等通用系统依赖于人类生成的数据,其中大部分数据来自书籍和网站。其能力的提升主要来自于系统规模和训练数据量的增加。
然而,可能没有足够的人工生成的数据来进一步推进这一过程(尽管更有效地使用数据、生成合成数据和改善不同领域之间的技能转移的努力可能会带来改进)。即使有足够的数据,一些研究人员表示,ChatGPT 等语言模型从根本上无法达到莫里斯所说的一般能力。
最近的一篇论文指出,超级智能的一个基本特征是开放性,至少从人类的角度来看是这样。它需要能够不断生成人类观察者认为新颖且能够从中学习的输出。
现有的基础模型不是以开放式的方式进行训练的,现有的开放式系统相当狭窄。本文还强调,单靠新颖性或可学习性是不够的。实现超级智能需要一种新型的开放式基础模型。
有哪些风险?
那么,这一切对于人工智能的风险意味着什么呢?至少在短期内,我们不需要担心超级智能的人工智能统治世界。
但这并不是说人工智能不存在风险。莫里斯和他的同事们也仔细考虑过这个问题:随着人工智能系统的能力越来越强,它们也可能获得更大的自主性。不同级别的能力和自主性会带来不同的风险。
例如,当人工智能系统几乎没有自主性,人们将其用作一种顾问时——比如,当我们要求 ChatGPT 总结文档,或者让 YouTube 算法塑造我们的观看习惯时——我们可能会面临过度信任或过度依赖它们的风险。
与此同时,莫里斯指出,随着人工智能系统功能越来越强大,还存在其他需要警惕的风险,包括人类与人工智能系统形成准社会关系、大规模失业和全社会倦怠。
下一步是什么?
假设有一天我们真的拥有了超级智能、完全自主的人工智能代理。那么我们是否会面临它们可能集中权力或做出违背人类利益的行为的风险?
不一定。自主性和控制可以齐头并进。系统可以高度自动化,同时提供高水平的人为控制。
和人工智能研究界的许多人一样,我相信安全的超级智能是可行的。然而,打造超级智能将是一项复杂且跨学科的任务,研究人员必须走一条前所未走的路才能实现这一目标。

页: [1]
查看完整版本: 什么是人工智能超级智能?它会毁灭人类吗?它真的快要到来了吗?