清洁能源解决方案为欧洲小岛国带来新活力
作为周四宣布的协议的一部分,领先的生成式人工智能开发商 OpenAI 和 Anthropic 同意向美国政府提供其新模型进行安全测试。该协议是与美国人工智能安全研究所达成的,该研究所隶属于联邦机构美国国家标准与技术研究所 (NIST)。
自 OpenAI 的 ChatGPT 问世以来,人工智能的监管一直是一个主要关注点,科技公司都在推动以自愿的方式将其技术开放给政府监督。
该机构表示,将与英国人工智能安全研究所的同行密切合作,在模型公开发布之前和之后,向两家公司提供有关其模型潜在安全改进的反馈。
美国人工智能安全研究所所长伊丽莎白凯利表示:“这些协议只是一个开始,但它们是我们致力于负责任地管理人工智能未来的重要里程碑。”
该机构表示,评估旨在支持 OpenAI 和 Anthropic 等领先的人工智能模型开发商在创新过程中做出的自愿承诺。
Anthropic 联合创始人兼政策主管杰克·克拉克 (Jack Clark) 表示:“我们与美国人工智能安全研究所的合作利用了他们广泛的专业知识,在广泛部署之前对我们的模型进行了严格测试。”
他补充道:“这增强了我们识别和减轻风险的能力,推动了负责任的人工智能发展。”
此次合作是白宫 2023 年宣布的人工智能行政命令相关工作的一部分,旨在为在美国快速部署人工智能模型提供法律背景。
华盛顿方面渴望让科技公司自由地创新和试验人工智能,这与欧盟形成鲜明对比,欧盟立法者通过了一项雄心勃勃的人工智能法案,以更严格地监管该行业。
但硅谷所在地加利福尼亚州的支持监管立法者周三通过了一项州人工智能安全法案,该法案现在需要州长签署才能成为法律。
OpenAI 首席执行官萨姆·奥特曼 (Sam Altman) 在社交媒体帖子中欢迎其公司与美国政府达成的协议,并表示在国家层面进行监管“非常重要”。
这是对加州通过的州法律的含蓄批评,该法律包括对任何违法行为的处罚,OpenAI 对此表示反对,认为这将扼杀研究和创新。
页:
[1]