您的位置 首页 资讯

欧盟人工智能法案:监管的先行者还是时机尚早?

西南财经大学 法学院 张欣 副教授

全球众多国家的政府正忙于制定各项法律法规,目的是为了解决人工智能(AI)可能带来的一系列潜在挑战。我国目前采取了一种对企业较为友好、以轻度管制为特征的AI规范,其核心目的是促进技术的快速发展。在这方面,美国已经发布了《人工智能行政命令》,而英国政府也推出了一份非强制性的《原则声明》。相比之下,欧盟于今年4月刚刚通过的《人工智能法案》则更加注重通过产品安全监管来降低人们使用AI系统时可能遭遇的风险。那么,《人工智能法案》具体的目标和重点是什么呢?

首先,这项法案对欧盟内使用的AI系统进行了分类,不论它们在哪里被开发。它按照风险级别将AI系统分为不同类别。其中,大部分AI应用被认为风险最低,因此不会受到监管。而那些被认为具有有限风险的系统,比如聊天机器人和带有AI生成内容的水印,仅需要遵循一些基本的透明度和用户知情权要求。同时,那些被认定为不可接受风险的系统,例如远程生物特征识别和分类、面部识别数据库及社会评分系统,则会被禁止使用。此外,法案着重监管被视为高风险的AI系统,这些系统在教育、就业、公共服务等领域与人类进行互动,介于有限风险和不可接受风险之间,针对这类系统,法案提出了一套复杂的规定和要求,旨在评估这些高风险系统在何种条件下可以被使用。

该法案对通用目的人工智能(GPAI)模型,包括大型语言和生成式AI模型,提出了特定要求。这些模型因适用于多种任务而被认为是通用的。供应商需提供详细技术文档和使用指南,除非模型采用开放许可。训练数据的使用须记录并遵守欧盟版权规定。当GPAI模型的训练计算能力超过10 flops时,视为存在系统风险,需进行模型评估、对抗性测试,并制定避免潜害的措施,同时报告可能事故并实施网络安全保护。

为确保AI模型符合人类价值观且避免歧视或有害反应,AI开发者构建了模型内的“护栏”。尽管存在绕过这些措施的方法,如操纵训练数据、引入恶意代码、执行海绵攻击、使用推理攻击暴露隐私,以及通过视觉幻觉实施欺骗,一些开发者尝试建立类似“宪法”的机制自监模型响应,确保其符合道德和法律标准,增强AI的自我监督,使其决策和行为既技术高效也伦理合规。

但是该法案对开放的GPAI采取了较宽松的监管措施,鼓励创新和为小型AI公司创造新的盈利机会,允许开放模型开发者在模型不构成系统性风险时免于执行测试,而将责任转移到可以调整模型行为的二次开发者和部署者身上。然而,这种开放性使得监管合规性跟踪变得复杂,尤其是在多层次应用提供者互动的情况下。此外,该法案也未将小型模型纳入严格监管之下,因为它们不满足计算能力的门槛。尽管应用范围广泛,但这些小型模型在没有额外指导的情况下可能回答不准确,说明它们的风险程度不仅仅与大小相关。同时,大型模型开发者被要求向使用者说明模型的互动方式及其与其他硬件或软件的关系,这需要通过具体实施规则进一步明确。这带来了关于GPAI模型与服务之间整合以及在法案框架下相关方责任的重要讨论。

《人工智能法案》的不完整性导致了对AI开发者和部署者缺乏法律确定性。此外,它还产生了高昂的合规成本,尤其是中小企业和初创企业。但该法案赋予欧洲委员会和新设立的人工智能办公室进一步的监管职能,负责注册和审核AI开发者提交的通知。尽管新设立的人工智能办公室资源有限且需时日方能全面运作,它仍须拟定一系列细则和指导方针。这些包括界定AI系统的规范、设定高风险AI系统的准则、调整通用AI模型的风险评级门槛、明确技术文件和合规评估要求,以及制订供应商行为规范。此外,办公室还将明确禁止的AI应用、高风险系统规定和透明度要求,这些都可能重新界定欧盟AI开发者的操作范围。

目前,市场上存在众多大型AI基础模型和小型模型,大型科技公司仅在AI计算基础设施方面占主导地位。欧盟尚缺乏大型AI模型,但可借助该法案的实施效应平衡国际竞争场景,促使其他国家采纳类似法规,减少开发者为规避监管而迁移的动机。法案》对大型模型的严格监管可能会使小型AI开发者在小型模型市场上获得优势,这部分市场不受系统风险监管关注,但技术可能较为落后。

AI技术领域的竞争政策复杂未定。开发先进AI模型需耗资巨大,通常超过初创企业的财力,而大型科技企业如谷歌、Meta、微软和亚马逊凭借强大的云计算基础设施已开发出自家大型模型。尽管由大公司前员工创立的初创企业在创新和技术前沿方面更为活跃,但他们需与大企业合作以获取必需的计算资源和数据。例如,法国AI初创企业Mistral与微软的合作。这类合作尚未涉及合并,但竞争机构已开始审视类似OpenAI与微软合作的性质。小型AI模型能否与大企业竞争,依赖于其在多任务中的表现。《人工智能法案》聚焦于独立大型AI模型的监管。但AI生态的去中心化快速发展要求评估整个系统的风险,而非单一模型。风险在各方间转移,模型与系统其他部分的整合程度如何,以避免市场扭曲,成为关键考量。

ChatGPT等专用AI应用通过特定数据集增强模型表现,GPAI模型为用户和开发者提供创建应用的平台。这些模型可通过插件与平台和软件集成,服务领域广泛,AI应用市场潜力巨大。模型训练需大量受版权保护的数据。欧盟版权指令允许合法获取的数据用于文本和数据挖掘,但版权所有者可选择退出。与大企业签许可协议的新闻出版商和AI初创企业正关注版权法案件,期待澄清版权问题。虽然许可数据集可提高质量,降低成本,但可能引起训练偏差,版权持有者的利益也可能影响AI的社会效益。

随着AI创意艺术家要求对其作品进行版权声明,《人工智能法案》规定AI产生的音频视觉和文本作品需加上机器可读水印,以区别于人类创作。但水印技术易被绕过,且仅当AI辅助人类时,不需加水印。目前,大部分国家仅认可人类创作的作品享有版权,机器产出则不受版权保护。关于混合产出获得版权的人类贡献程度尚无明确界定。我国最新的动向是法院对复杂提示集的开发者授予版权,这引发了对现行欧盟版权指令适用性的再思考。

《人工智能法案》标志着长期监管旅程的开始,委托给欧盟委员会及其新成立的AI办公室负责起草相关实施规则和指导方针。这些工作将引导法案实施,最终决定其成为促进可信AI创新的关键工具,还是过早限制创新的法规。

免责声明:文章内容不代表本站立场,本站不对其内容的真实性、完整性、准确性给予任何担保、暗示和承诺,仅供读者参考,文章版权归原作者所有。如本文内容影响到您的合法权益(内容、图片等),请及时联系本站,我们会及时删除处理。

作者: admin

为您推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

返回顶部