欧盟立新规:高风险AI模型须严管重大事故和网络安全

AI资讯4小时前发布 ainav
3 0

7月18日,路透社报道指出,欧盟委员会正式发布了一项具有里程碑意义的指导方针,针对那些被认定为具有系统性风险的人工智能模型,以协助其遵循《人工智能法案》的相关规定。这一政策变动标志着AI监管框架的重要进展,对相关企业提出了更严格的合规要求。

该指导方针旨在回应业界对于《人工智能法案》中繁重监管义务的关切,同时为相关企业提供更为清晰的操作指引。根据法案规定,违规企业将面临三重处罚机制:一是最高可达750万欧元(约合6249.6万元人民币)的固定金额罚款;二是按照公司年度营业额的1.5%进行处罚(上限为3500万欧元);三是针对情节特别严重的全球性企业,罚款金额可提升至其全球营业额的7%。

欧盟立新规:高风险AI模型须严管重大事故和网络安全

自今年8月2日起,《人工智能法案》将正式适用于两类AI模型:一是具有系统性风险的AI模型;二是基础型AI模型。具体而言,谷歌、OpenAI、Meta、Anthropic和Mistral等科技巨头开发的先进模型均在监管范围内,相关企业需在一年内完成合规工作。

欧盟委员会对”系统性风险AI模型”给出了明确界定:这类模型具有强大的计算能力,并可能对公共健康、安全、基本权利或社会秩序产生重大影响。这种定义凸显了监管的必要性和紧迫性。

首批需要接受监管的AI模型将面临一系列严格的合规要求,包括:模型评估以确保其安全性;风险识别与缓解以降低潜在危害;对抗性测试以验证系统鲁棒性;重大事件报告以提高透明度;以及建立足够的网络安全防护措施,防止模型被恶意获取或滥用。

针对通用型和基础AI模型,《指导方针》还增设了新的 transparency obligations(透明度义务),要求企业:
1. 编写详尽的技术文档;
2. 制定并执行明确的版权政策;
3. 详细披露训练数据的来源及组成。

欧盟技术事务主管亨娜・维尔库宁表示:”这份新发布的指导方针将极大推动《人工智能法案》的有效实施,确保监管体系更加清晰、更具执行力。”这一表态体现了欧盟在AI治理领域的坚定决心和积极态度。

© 版权声明

相关文章