加强人工智能伦理治理
近日,人工智能研究公司OpenAI推出全新的生成式人工智能模型Sora成为全球关注热点。Sora能将文字、图像、音频等信息转化为逼真的视频,仿佛拥有点石成金的魔力。
从人工智能技术驱动的自然语言处理工具ChatGPT到如今的Sora,从自动生成文字、图片,再到自动生成视频,人们惊叹人工智能突破性进展,同时也伴随着质疑和担忧,特别是背后的伦理挑战。Sora生成的视频可以以假乱真。这是一把双刃剑,一方面可以用于艺术创作;另一方面也可能被滥用于造假、欺骗,甚至颠覆人们对现实的认知。
Sora的出现意味着人工智能技术已经发展到一个新的高度,同时也对人工智能技术的监管能力提出挑战。如果不能有效地管控Sora等技术,可能会出现无法预料的后果。
联合国教科文组织此前发布的《人工智能伦理原则》,提出了人工智能发展的11项基本原则,包括尊重人权、促进可持续发展、避免偏见和歧视等。多个国家和地区都发布了相关的人工智能伦理规范。微软等大型科技公司也发布了相关规范。
人工智能技术日新月异,伦理规范和监管制度难免存在滞后性。加之伦理问题的复杂性,各个国家和地区规范存在差异,许多规定过于原则性,缺乏可操作性,难以有效落地实施。因此,完善细化相关伦理规范,加强审查和监管,以及相关伦理教育和宣传,更显迫切。只有正视Sora带来的伦理挑战,并加强伦理治理,才能确保人工智能技术造福人类,而不是成为威胁。