找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

只需一步,快速开始

查看: 49|回复: 0

人工智能的类人特征:我们是否正在模糊人与机器之间的界限?

[复制链接]

3297

主题

0

回帖

6594

积分

管理员

积分
6594
发表于 2024-12-13 14:55:42 | 显示全部楼层 |阅读模式 IP归属地:亚太地区
赋予机器人类特征并非新鲜事,但随着生成式人工智能的兴起,拟人化正在呈现新的维度。这一趋势引发了重要的哲学和伦理问题,同时也重新定义了我们与技术的关系。
如果您曾在 ChatGPT 中输入过“你好”或“谢谢”,那么您就犯了拟人化的错误——这是一个绕口令的词,在有关人工智能 (AI) 的讨论中出现得越来越多。但它到底是什么意思呢?
广义上,拟人化是指将人类特征赋予动物和物体等非人类实体。这一概念也适用于人形机器人,以及最近的人工智能,尤其是生成式人工智能。与用于面部识别等特定目的的专用人工智能不同,生成式人工智能(包括 ChatGPT)可以根据提示生成文本、图像和其他类型的内容。
虽然 GenAI 系统的人性化几乎未被注意到,但这一趋势引发了人们对人性和智能的定义以及我们与这些新技术的关系的质疑。以与人类相同的方式对待机器是否存在风险?
从一开始就拟人化
机器拟人化并不是什么新鲜事。早在 1950 年,英国数学家兼计算机科学家艾伦·图灵就提出了一种关于机器智能的激进思考方式。在他的图灵测试中,人类评估者被要求确定他通过书面文本交谈的实体是人类还是机器。这个想法是为了评估机器展示类似人类智能的能力。
图灵的这项开创性工作表明了我们倾向于将人类特征赋予机器,并为进一步探索拟人化奠定了基础。
“我们通常期望一项技术或一台机器比我们更精确、更具体、更快、更高效,”麻​​省理工学院施瓦茨曼计算机学院院长、2024 年洛桑联邦理工学院荣誉博士学位获得者丹尼尔·胡滕洛赫 (Daniel Huttenlocher) 表示。“GenAI 的结果让人感觉很人性化,因为它们展示了类似人类的特征。它们不精确、适应性强且令人惊讶。”
与我们相似的技术
AI 这个缩写当然包含“智能”这个词,但更重要的是,它还包含“人工”这个词。然而,洛桑联邦理工学院讲师、创新伦理与法律研究员 Johan Rochel 解释说:“AI 系统基于庞大的数据集,反映了开发人员教给它们的决策,传达了开发人员自己的价值观、信仰和道德观。”
通常,拟人化始于人工智能系统界面的设计。换句话说,用户将人工智能机器拟人化的原因在于,这些机器从一开始就被设计成具有人类的特征。例如,亚马逊的 Alexa 拥有温暖的声音和人的名字,而 ChatGPT 则像人一样彬彬有礼、友好。
这些特点使得机器使用起来简单且令人愉悦。“最好的数字系统都是以用户为中心进行设计和构建的,”Rochel 说。“它们的交互越直观,就越容易被接受。”
然而,让机器看起来像人类并不那么简单。“这是一个真正的技术挑战,”EPFL 人工智能中心联席主管 Marcel Salathé 说。“一个完美拟人化的人工智能系统需要完全掌握人类语言,包括其所有细微差别,能够识别情绪并做出适当反应,实时处理信息,适应个人用户等等。”
建立联系
当您提示 ChatGPT 为您提供活动名称创意后,它会祝您活动顺利,这会让互动更加引人入胜、更具情感色彩,给人一种友好关系的印象。这种拟人化是系统开发人员用来让用户与机器建立联系的一种战略策略。
根据洛桑联邦理工学院副教授罗伯特·韦斯特最近的一项研究,当用户与人工智能系统就某一问题进行互动时,如果系统能够访问用户的个人信息,那么系统实际上可以改变用户的观点。这引发了人们对人工智能社会影响的质疑,因为它不仅可以用作增强型数字技术,还可以产生能够影响我们决策的对话。
我们能相信这些虚拟合作伙伴吗?
在医疗保健行业,越来越多的拟人化系统正在开发中,包括人形机器人和道德支持聊天机器人,用于服务和协助患者。这种人性化、个性化的虚拟系统旨在建立信任和纽带。
“如今的用户越来越了解并意识到使用数字技术的潜力,”罗切尔说。“他们对可信赖系统的需求也在增长。这也反映在立法中。虽然‘信任’的确切定义可能有所不同,但一个关键方面是,它是通过人与人之间的关系发展起来的。
“但在这种情况下,我们处理的是人机关系。所有让用户感觉自己在与人互动的功能都是为了建立信任,但这些功能并不总是明确的。”
例如,以 ChatGPT 提供回复的方式为例,“就像有人在输入回复一样,就像在消息传递应用程序中一样,”Rochet 说。“用户显然知道 ChatGPT 不是人类,但这种模拟与人类对话的隐秘方式鼓励用户与机器建立某种关系——机器假装像我们一样。”
这种与机器的模拟关系可以超越闲聊和亲切的回复。在 2013 年上映的电影《她》中,华金·菲尼克斯饰演的主角爱上了斯嘉丽·约翰逊饰演的语音助手。这部电影提出了关于人际关系以及生成式人工智能如何影响我们行为的问题。
“信任通常是通过分享个人和机密信息来建立的——如果这些信息落入坏人之手,可能会造成极大损害,”萨拉特说。“用户的隐私受到威胁。”
安全和问责问题
如果我们认为人工智能系统与我们是平等的,那么如果我们提交的论文中有错误,它们应该受到指责吗?“这意味着人工智能系统可以像个人一样承担责任,”罗切尔说。“但我们不应忘记,它们的智能只是人工智能。机器永远不能承担责任,因为它们不是完全自主的。它们不能做出除编程之外的决定。我们需要寻找机器背后的人。但责任在哪里——开发者还是用户?”
通用电气 D-12 型烤面包机,20 世纪 10 年代。来源:维基百科
“我喜欢用烤面包机里的叉子来打个比方,”Huttenlocher 说。“如果你看一下 20 世纪第一批烤面包机的照片,你很快就会发现,叉子插在烤面包机上很容易触电。后来,人们制定了标准和保护措施,以确保烤面包机的安全,防止这种误用成为常态。
我们需要对人工智能做同样的事情。我们需要引入防止滥用技术的保障措施,建立法律责任,并采用每个人都能理解的标准。
罗切尔表示:“透明度至关重要。我们需要提醒人们,这些只是机器,也会犯错。这将有助于降低误用的风险。”
立法者仍在争论如何在人工智能系统中建立透明度和可解释性。欧盟的《人工智能法案》非常明确:生成式人工智能系统的设计和呈现方式必须完全清楚地表明它们不是人类。用户必须充分意识到他们正在与机器交互。
人工智能与人类:建立深思熟虑且富有洞察力的伙伴关系
“我们可以从人工智能中学到很多东西,”Huttenlocher 说。“例如,AlphaGo 为围棋设计了连最优秀的棋手都未曾想到的策略,为围棋带来了全新的维度。我认为人工智能是一项可以增强而不是取代人类能力的发明。”
Salathé 指出:“通过拟人化人工智能系统,我们可以加速技术的采用,但这也引发了关于人类在越来越难以区分人类和机器的世界中的角色的基本问题。随着人工智能的进一步发展,我们需要确保我们与机器的互动——尽管它们看起来很自然——不会让我们忘记我们人类的本质。”
对于罗切尔来说,“人工智能系统开发者、利益相关者、立法者和用户必须共同努力,确保技术仍然是人类手中的工具,而不是成为取代或操纵人类的力量。”

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|NewCET |网站地图

GMT+8, 2025-1-22 13:38 , Processed in 0.025892 second(s), 20 queries .

Powered by NewCET 1.0

Copyright © 2012-2024, NewCET.

快速回复 返回顶部 返回列表