找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

只需一步,快速开始

查看: 41|回复: 0

观点:监管人工智能的最佳方式可能不是专门监管人工智能

[复制链接]

2733

主题

0

回帖

5466

积分

管理员

积分
5466
发表于 2024-9-18 23:53:40 | 显示全部楼层 |阅读模式 IP归属地:亚太地区
新一波人工智能(即所谓的AI)既带来了希望,也带来了威胁。
通过协助工人,它可以提高生产率并增加实际工资。通过利用大量未充分利用的数据,它可以改善零售、医疗和教育等服务业的成果。
这些风险包括深度伪造、隐私滥用、不可上诉的算法决策、知识产权侵犯和大规模失业。
风险和潜在利益似乎与日俱增。周四,Open AI 发布了据称可以推理、执行复杂计算并得出结论的新模型。
但作为竞争和消费者保护方面的专家,我认为,呼吁制定新的人工智能专项法规在很大程度上是错误的。
人工智能的大多数用途已受到监管
参议院委员会即将就人工智能的应用带来的机遇和影响提交报告,我帮助起草了生产力委员会的提交文件。
另外,政府正在就高风险环境下人工智能的强制性防护措施进行磋商,这将作为开发人员在考虑自愿安全标准的同时应该考虑的事项的一种清单。
我的想法是:人工智能的大多数潜在用途已经受到现有规则和法规的涵盖,这些规则和法规旨在保护消费者、保护隐私和禁止歧视等。
这些法律远非完美,但对于不完美的地方,最好的方法是修复或扩展它们,而不是为人工智能引入特殊的额外规则。
人工智能肯定会对我们现有的法律提出挑战——例如,让它更容易误导消费者,或者应用帮助企业串谋定价的算法。
但关键在于,控制这些事情的法律是存在的,并且有经验丰富的监管机构来执行这些法律。
最好的办法是让现有规则发挥作用
澳大利亚的一大优势是其监管机构的实力和专业知识,其中包括竞争和消费者委员会、通信和媒体管理局、澳大利亚信息专员委员会、澳大利亚证券和投资委员会以及澳大利亚能源监管机构。
他们的工作应该是表明人工智能在哪些方面受现有规则的约束,评估人工智能可能违反这些规则的方式,并运行测试用例以明确规则的适用性。
这种方法将有助于建立对人工智能的信任,因为消费者会发现他们已经受到了保护,同时也为企业提供了清晰的认识。
人工智能可能是新事物,但对于什么是可接受的行为、什么是不可接受的行为的既定共识并没有发生太大改变。
一些规则需要调整
在某些情况下,现有法规需要修改或扩展,以确保涵盖人工智能促成的行为。车辆、机械和医疗设备的审批流程将越来越多地需要考虑人工智能。
在某些情况下,需要制定新的法规。但这应该是我们最终的目标,而不是起点。试图因为人工智能是人工智能而对其进行监管,在最好的情况下也是无效的。在最坏的情况下,它将扼杀人工智能社会可取用途的发展。
人工智能的许多用途几乎不会带来任何风险。如果存在潜在危害,则需要权衡其与潜在益处。风险和益处应与现实世界中基于人类的替代方案进行对比,而这些替代方案本身也远非无风险。
只有在现有法规(即使经过澄清、修订或延长)不够充分的情况下,才需要制定新法规。
在需要的地方,它们应该尽可能保持技术中立。为特定技术制定的规则可能很快就会过时。
后发优势
最后,成为国际“监管接受者”还有很多事情要做。欧盟等其他司法管辖区在制定人工智能专项法规方面处于领先地位。
包括澳大利亚在内的全球产品开发商如果想要进入欧盟和其他大市场,就需要满足这些新规定。
如果澳大利亚制定自己独特的人工智能专用规则,开发商可能会忽视我们相对较小的市场而转向其他地方。
这意味着,在需要对人工智能进行专门监管的有限情况下,起点应该是已经存在的海外规则。
后发制人或最后行动者有其优势。这并不意味着澳大利亚不应该走在制定国际标准的前列。这仅仅意味着它应该在国际论坛上与其他国家一起设计这些标准,而不是独自行动。
形势仍在发展。我们的目标应该是让我们自己有最大的机会从人工智能中获益,同时提供安全网来保护我们免受不利后果的影响。我们应该从现有的规则开始,而不是新的人工智能专用规则。

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|NewCET |网站地图

GMT+8, 2024-11-16 21:09 , Processed in 0.025636 second(s), 21 queries .

Powered by NewCET 1.0

Copyright © 2012-2024, NewCET.

快速回复 返回顶部 返回列表