生成式人工智能技术迅速发展,在全球范围内引起极大关注。近期,多个国家出台了同样或类似的管理规定,规范生成式人工智能技术的发展。
欧盟
6月14日,欧盟的主要立法机构欧洲议会通过了一项名为《人工智能法案》(AI Act)的法律草案,该法案将对被视为该技术最危险的用途施加新的限制——投票禁止实时远程生物识别技术,欧盟禁令意味着不能在公共场合实时扫描人脸;同时要求OpenAI和谷歌等公司必须进行风险评估,并披露更多用于创建程序的数据。 欧盟委员会执行副主席、反垄断事务主管玛格瑞特·维斯塔格(Margrethe Vestager)在接受媒体采访时表示,与导致人类灭绝相比,AI发展带来的歧视问题在眼下更为紧迫,需要设置“护栏”来应对该项技术背后的****风险。 2021年,欧盟首次提出“基于风险”的《人工智能法案》,其最初设想是规范AI使用,完全禁止社交评分等某些做法,并为如何在“高风险”情况下使用该技术制定标准。然而,如今欧盟成员国推动将通用AI也纳入其中,议会成员更进一步对“基础模型”加强了控制,这些大型语言模型是ChatGPT等聊天机器人的系统支柱,在去年ChatGPT发布后,引起了公众和监管机构的注意。 欧盟在监管生成式AI方面的进展可能对该领域产生巨大影响,据估计,未来10年,该领域的价值将超过1.3万亿美元。而违反欧盟的监管规定,可能导致一家公司面临高达年收入6%的罚款。
澳大利亚
近日,澳大利亚政府表示,将弥补现有法律漏洞对新形式的人工智能技术采取“保障措施”。澳大利亚联邦工业、创新和科学部部长埃德·胡斯克(Ed Husic)接受澳大利亚广播公司采访时表示:“显然,社会上有一种担忧,即这项技术发展是否有点太快了。” 胡斯克发布了澳大利亚国家科学技术委员会的建议,以及一份关于人工智能的讨论文件,其主旨是考虑有针对性的监管措施。 他公布了两个大致目标:首先确保企业能够自信和负责任地投资于人工智能技术;同时确保“适当的保障措施”,特别是针对高风险生成式人工智能工具。
美国
6月下旬,美国商务部宣布其下属的国家标准与技术研究所(NIST)将启动一个政府工作小组,制订指导方针应对生成式人工智能带来的风险,同时有助于抓住这种新技术带来的机遇。 NIST表示,启动这个工作小组是由于生成式人工智能发展的速度、规模和潜在影响几个因素,让很多行业和整个社会产生革命性的变化。 早在今年4月,参议员迈克尔·贝内特(Michael Bennet)就提出了一项法案,准备成立特别工作组来研究美国的人工智能政策,并确定如何****限度减少人工智能对隐私、公民自由和正当程序的威胁。 今年早些时候,美国商务部下属的国家电信和信息管理局(NTIA)发布了“人工智能问责政策”征求意见稿(RFC),就是否需要对ChatGPT等人工智能工具实行审查、新的人工智能模型在发布前是否应经过认证程序等问题征求意见。
英国
据路透社消息,在英国有几家国家监管机构负责起草内容涵盖人工智能的监管规则,这些机构中就包括金融行为监管局。目前,该机构正在与艾伦·图灵研究所和其他法律与学术机构协商,提高其对人工智能技术的理解。 5月,这家商业竞争监管机构表示将开始研究人工智能对消费者、企业和经济的影响,以及是否需要新的控制措施。
|