Josiah02 发表于 2024-9-13 13:47:56

ChatGPT 的最新版本有一个你会爱上的功能——这让人担心

如果您是 ChatGPT 的付费用户,您可能已经注意到,当您与人工智能(AI)大型语言模型进行音频交互时,它最近开始听起来更像人类了。
这是因为语言模型兼聊天机器人背后的公司 OpenAI 目前正在对一项名为“高级语音模式”的新功能进行有限的试点。
OpenAI 表示,这种新模式“具有更自然的实时对话功能,可以捕捉情绪和非语言暗示并做出回应”。该公司计划在未来几个月内让所有付费 ChatGPT 用户都能使用这种高级语音模式。
高级语音模式听起来非常人性化。它不会出现语音助手中常见的尴尬间隙,而是像人类一样呼吸。它也不会受到干扰,传达适当的情绪暗示,似乎可以从语音暗示中推断出用户的情绪状态。
然而,在让 ChatGPT 看起来更人性化的同时,OpenAI也表示担心用户可能会像对待人类一样对聊天机器人做出反应——与它建立亲密的关系。
这并不是假设。例如,一位名叫 Lisa Li 的社交媒体影响者已将 ChatGPT 编码为她的“男朋友”。但究竟为什么有些人会与聊天机器人发展亲密关系呢?
亲密关系的演变
人类拥有非凡的友谊和亲密关系能力。这是灵长类动物通过身体上的相互梳理来建立联盟的方式的延伸,以便在发生冲突时可以相互呼唤。
但我们的祖先也进化出了非凡的用言语“培养”彼此的能力。这推动了进化周期,使我们大脑中的语言中心变得更大,我们用语言做的事情也变得更复杂。
更复杂的语言反过来又使我们能够与更庞大的亲属、朋友和盟友网络进行更复杂的社交。它还扩大了我们大脑的社交部分。
语言是随着人类社会行为而进化的。我们与熟人建立友谊或与朋友建立亲密关系的方式主要是通过对话。
20 世纪 90 年代的实验表明,对话时,尤其是涉及到透露个人信息时,我们的对话伙伴会建立起一种亲密的感觉,即我们自己也是其中的一部分。
因此,当尝试复制人类与聊天机器人之间这种“不断升级的自我披露”过程导致人类与聊天机器人产生亲密感时,我并不感到惊讶。
这还只是文字输入。当对话的主要感官体验——声音——参与进来时,效果就会被放大。即使是 Siri 和 Alexa 等听起来不像人类的语音助手,也会收到大量的求婚。
实验室黑板上写着
如果 OpenAI 问我如何确保用户不会与 ChatGPT 建立社交关系,我会给出一些简单的建议。
首先,不要给它发声。其次,不要让它成为明显对话的一端。基本上不要制造你制造的产品。
该产品之所以如此强大,正是因为它出色地模仿了我们建立社会关系的特征。
自从近 60 年前第一批聊天机器人诞生以来,实验室的黑板上就写满了文字。至少 30 年来,计算机一直被认为是社交行为者。ChatGPT 的高级语音模式只是下一个令人印象深刻的进步,而不是科技行业会热情洋溢地称之为“游戏规则改变者”的东西。
去年年初,虚拟好友平台 Replika AI 的用户意外地发现自己无法使用聊天机器人最先进的功能,这一事实清晰地表明用户不仅与聊天机器人建立了关系,而且发展了非常亲密的个人感情。
Replika 不如新版 ChatGPT 先进。但其互动质量如此之高,以至于用户与它建立了令人惊讶的深厚联系。
风险是真实存在的
许多人渴望拥有一个能不带偏见地倾听的伙伴,而新一代聊天机器人将为他们带来很多好处。他们可能会感觉不那么孤独和孤立。这些技术的好处永远不容忽视。
但ChatGPT高级语音模式的潜在危险也是非常真实的。
与任何机器人聊天所花的时间都是与朋友和家人互动所花的时间。而花大量时间在科技上的人最有可能取代与其他人的关系。
OpenAI 指出,与机器人聊天也会影响人们与他人的现有关系。人们可能会期望自己的伴侣或朋友表现得像有礼貌、顺从、恭敬的聊天机器人。
机器对文化的更大影响将变得更加突出。从好的方面来看,它们也可能提供对文化如何运作的深刻见解。

页: [1]
查看完整版本: ChatGPT 的最新版本有一个你会爱上的功能——这让人担心