在创新与安全间寻求平衡
随着人工智能的快速发展,如何化解其带来的安全问题成为全球性议题。
欧盟27国代表近日一致投票支持《人工智能法案》(AI Act)最终文本,推动欧盟向立法监管人工智能又迈出重要一步。欧盟内部市场委员蒂埃里·布雷东发文称,27国一致支持这一法案,说明它们认可“谈判者在创新与安全之间找到了完美平衡”。
该法案早在2021年便被欧盟委员会提出,要求根据人工智能(AI)功能的风险水平,列出一系列禁止AI从事的条例。此后,伴随ChatGPT生成式人工智能系统的爆发,以及随之对就业、隐私和版权保护等构成的风险,欧洲议员们又开始推动法案覆盖到“基础模型”,即支撑ChatGPT等通用人工智能服务的先进系统。
然而,这一“扩容”却引发了困扰该法案的最大症结之一。包括法国、德国在内的一些国家,担忧法案对先进人工智能模型的严格监管将阻碍欧洲人工智能的发展。对此,欧盟委员会表示将推出多项支持人工智能创新的举措,包括建立专门监管机构,将为科学研究而开发的AI排除出监管范围等。但直到近日各方一致批准最终法案文本前,立法者和欧盟各国仍在为“如何在促进创新与防范风险间取得平衡”进行激烈辩论。
最终,德国联邦数字化和交通部部长福尔克·维辛在法案投票前夕,才宣布“德国在人工智能法案立场上的争论”结束了,达成“可行的妥协”。法国则在实现“透明度和商业秘密的平衡”、减轻管理高风险AI系统的行政负担后,才松口点头。同时,由苹果、谷歌、Meta等科技巨头组成的游说集团CCIA,依然对欧盟AI立法感到不安,表示新规则中仍有许多不明确的地方,可能会减缓欧洲人工智能创新应用的开发和推广。
从多方表态来看,这一法案尚未达到所谓的“完美平衡”。但欧盟各国依然努力达成妥协,一个主要原因是,当前人工智能创新发展速度已远超技术监管、法律伦理、政策评估的脚步,亟需更具远见的治理框架来应对未知的挑战,同时,这也是人工智能主要发展国所面临的问题。在世界经济论坛总结的2024年十大短期风险中,人工智能已超越气候变化、经济疲软和战争,被视为最大风险。
当前,全球各主要经济体纷纷加速完善相关治理框架。中国在2023年7月出台了全球领先的针对生成式人工智能的《生成式人工智能服务管理暂行办法》。美国则以《人工智能权利法案蓝图》等非立法性方案为主要举措对人工智能发展进行规制。加拿大、韩国、日本等国家同样开始在人工智能领域采取规范和限制措施。
与此同时,也有越来越多的国家和地区认识到,人工智能具有跨国家、跨文化和跨领域特征,单一国家建立的符合自身利益的监管框架,无法解决人工智能治理中的实际问题。在第三届“一带一路”国际合作高峰论坛上,中国提出《全球人工智能治理倡议》,呼吁各方就全球人工智能治理开展沟通交流、务实合作。2023年11月,包括中国、美国和欧盟等在内的20余个国家和地区共同签署了首个全球性AI声明《布莱切利宣言》,同意通过国际合作,建立人工智能监管方法。
这样看来,欧盟相关法案在区域内部不断推动的同时,还需进一步将内部监管嵌入到国际机制之中,积极寻求搭建多边人工智能监管与合作平台,才能真正找到创新与安全之间的“完美平衡”。