控制人工智能:新西兰可以从欧盟法规中学到什么
人工智能如今支撑着我们在公共和私人领域的许多活动,包括工作、教育、旅游和休闲。但其快速发展和广泛使用主要是由商业利益而非审议政策或立法选择所驱动。因此,人们越来越担心其对个人和集体人权(如隐私和言论自由以及知识产权)的影响。
最近,这种担忧已转化为全球、地区和国内监管举措的浪潮。欧盟的《人工智能法案》预计将于下个月生效,其范围和规模具有开创性。
该法案超越了之前的全球和国家举措(例如负责任的人工智能宪章和道德人工智能声明),建立了全面的监管框架,包括执法和处罚制度。
一些新西兰的公司可能会产生特定的合规要求(如果他们的产品在欧盟市场上销售,或影响欧盟人民),但更为重要的是该法案对全球规范的影响。
欧盟是全球最大的单一市场和全球标准制定者。鉴于新西兰-欧盟自由贸易协定正在建立更紧密的联系,新西兰应密切关注监管发展。
欧盟人工智能法案最好被视为产品安全立法,旨在保护人们免受伤害并促进人工智能的可信和安全使用。
其核心结构是基于风险的人工智能框架,根据风险等级制定分级要求。高风险人工智能系统(例如用于就业、教育和关键基础设施的系统)将接受合规性评估,提供商必须证明其符合透明度和网络安全等要求。
大多数高风险系统都需要在公共数据库中注册。欧盟层面和欧盟管辖范围内正在建立治理结构,以监督合规性、制定实施标准并提供专家建议。
全球关注的是关于禁止某些类型人工智能的决定(通过该法案的“不可接受的风险”分类)。这些决定可能会影响全球不断发展的对话,即是否应该完全禁止某些人工智能系统,因为它们与基本权利和人类尊严不相容。
该法案禁止的系统包括社交评分、图像抓取以及大多数类型的情绪识别、生物特征分类和预测警务应用程序。
然而,尽管公民自由团体采取了一致行动,但该法规并未完全禁止实时远程生物特征监控——最常见的例子就是实时面部识别技术。
虽然这种类型的监控属于“不可接受的风险”类别,但正如法律中所探讨的那样,对于执法目的,存在重大豁免。此外,国家安全、国防和军事目的不在该法案的管辖范围内。这意味着该技术将继续被使用。
还存在一个重大风险,即通过定义实时远程生物特征监控的合理情况,欧盟可能被视为认可该技术是可接受的,或许会导致在国家管辖范围内增加使用该技术,而没有必要的社区认可或特别受影响群体的参与。
在全球争夺和发展技术中心的竞争中,关于哪些监管环境最能促进人工智能创新存在着相当大的争议。一些人认为欧盟的做法可能会扼杀创新,但另一些人则认为确定性和明确的界限为投资和创新提供了坚实的基础。
总体而言,欧盟的做法基于这样的理念:当消费者信任系统、对质量有信心时,他们更有可能愿意在商业意义上使用人工智能并参与公共服务。
那么新西兰可以从欧盟的做法中学到什么呢?
新西兰的监管制度存在重大漏洞,这可能会阻碍创新并危及公众对人工智能的信任。
隐私和数据保护制度相对薄弱,个人和社会缺乏便捷的途径了解人工智能的使用情况或投诉人工智能和类似技术对其权益的影响,缺乏强有力的执法或惩罚机制,国家监控的立法制度已过时。
如果没有以人为本、值得信赖且强大的监管框架,对人工智能的接受和信任可能会受到影响。尽管新西兰有着独特的社会和文化背景,需要采取量身定制的方法,但欧盟人工智能法案中的概念和框架为以人为本的人工智能监管提供了坚实的基础。
页:
[1]