找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

只需一步,快速开始

查看: 40|回复: 0

研究人员表示,在测试新的人工智能工具时,一定要避免“特斯拉陷阱”

[复制链接]

2883

主题

0

回帖

5766

积分

管理员

积分
5766
发表于 2024-9-4 18:01:45 | 显示全部楼层 |阅读模式 IP归属地:亚太地区
如果只有技术乐观主义者才能测试人工智能工具,那么结果肯定不够好。特斯拉在这方面犯了一个大错误——医疗行业应该好好吸取这个教训。
特斯拉多年来一直在测试自动驾驶汽车,而挪威科技大学能够作为《信息与组织》杂志上发表的一项研究的一部分在幕后参与其中。
特斯拉已经发布了多个版本的自动驾驶 AI 工具,每次发布都会越来越好。该工具由用户训练。换句话说,由使用自动驾驶功能的驾驶员训练。
现在已经清楚的是,其中一些推动者是具有高度风险承受能力的技术乐观主义者。
开车时睡着了
有些试驾员对自动驾驶功能过于自信,甚至在驾驶时睡着了。这导致了一些事故,其中两起事故是致命的,因为睡着的司机无法干预和超越自动驾驶功能。
在其中一起案件中,一辆汽车直接撞上了停在路边的一辆消防车。
NTNU 参与的研究表明,这些对自动驾驶 AI 最有信心的司机实际上只会给特斯拉的计划带来麻烦。
这是因为,当风险承受能力较低的特斯拉车主看到事故报道时,他们会对人工智能工具失去信心,永远不会使用自动驾驶功能。这反过来又剥夺了人工智能工具学习的重大机会。
先询问风险规避者
研究科学家认为,许多其他有志于利用人工智能的企业都可以从这项研究的结果中学到一些重要的经验教训。尤其是在医疗保健领域。
迄今为止,对于所有计划使用人工智能工具的企业来说,最重要的一课是,试点用户的角色应该首先提供给谨慎和规避风险的人。
此类建议与测试新数字系统时通常的做法完全相反。
当然,原因在于,在招募试点用户(个人或团队)时,无论是与人工智能还是其他相关,举手的总是那些敢于冒险的人。换句话说,就是那些对新技术最为积极和乐观的人。
这类人通常也是那些愿意在测试过程中冒险的人。正因为如此,他们更适合担任试点用户。
医生之间的模式相同
如今,在 SINTEF 和 NTNU,研究人员正在研究正在尝试机器学习模型的医生和工程师。他们发现了与特斯拉研究中记录的相同趋势。
厌恶风险的用户在遇到工具出错的例子时往往会避开人工智能。他们最初的怀疑得到了证实,他们失去了再次尝试的动力。
人们之所以如此容易“追随”怀疑论者,一个可能的关键原因是,人们普遍对他们无法解释或不理解的事物抱有强烈的厌恶情绪。
“黑匣子”让我们感到紧张
所谓的亚符号人工智能(借助分类过程识别从形状到复杂模式的一切事物的算法)的问题在于它被视为“黑匣子”。
挪威科技大学的 Inga Strümke 等人在所谓的可解释人工智能领域开展的研究专门针对这一问题。此类研究的结果表明,当发生不可预见的事情时,人们需要一个解释。
我们接受一般人(包括医生)都会犯错。这是因为我们能够理解事情发生的原因。然而,我们不知道亚符号人工智能工具是如何得出其分类的。这让我们感到紧张和不安全。
人工智能可以为医疗保健领域提供关键帮助
这或许是一个重要原因,当“风险承受能力强”的人根据毫无根据的人工智能建议犯下致命错误时,其他人所建立的任何信心都可能在几分钟内被摧毁。
我们认为,社会必须控制住这个问题。尤其是因为医生 Ishita Barua 在她最近的书《Kunstig intelligens redder liv》(挪威语,人工智能拯救生命)中发表了一些想法。Barua 还拥有人工智能在医学领域的应用博士学位。她认为,卫生部门必须大胆尝试并利用机器学习模型,因为它们具有巨大的潜力。
那么,卫生行业可以做些什么来避免陷入“特斯拉陷阱”呢?
来自风险规避者的关键数据
在测试人工智能模型时,请咨询那些风险承受能力较差的医生。请他们试用该工具,观察、学习并传播他们的经验,至少在最初不要在治疗患者时使用基于人工智能的建议。
这种方法有可能为模型提供更好、更可靠的训练数据。特斯拉的研究告诉我们原因。当汽车的自动驾驶仪 AI 出现异常时,“谨慎”的司机会接管方向盘并纠正错误。这为模型提供了宝贵的机器学习,使 AI 工具能够调整其驾驶风格。
在特斯拉自动驾驶仪的最新版本中,人工智能工具在与之前被修正过的情况类似的情况下表现得更好。
但如果“谨慎”的人工智能用户被技术乐观主义者的错误吓跑,社会就有可能失去这样的好处。

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|NewCET |网站地图

GMT+8, 2024-11-22 20:09 , Processed in 0.026272 second(s), 21 queries .

Powered by NewCET 1.0

Copyright © 2012-2024, NewCET.

快速回复 返回顶部 返回列表