AI监管框架全球进展:欧盟AI法案正式生效(更新)

欧盟AI法案(AI Act)正式生效,这是全球首个全面的AI监管框架。该法案根据AI系统的风险等级对其进行分类监管,对高风险AI系统提出了严格的要求。

这一法案的实施将对全球AI治理产生深远影响。许多国家正在参考欧盟的做法,制定自己的AI监管政策。

科技公司需要密切关注这一法规的实施,并相应调整其AI产品和服务的开发策略。

欧盟AI法案采用基于风险的分级监管框架,将AI系统分为四个等级:不可接受风险、高风险、有限风险和最低风险。不可接受风险的AI应用(如社会评分系统、实时大规模生物识别监控)被完全禁止。高风险AI系统(如用于招聘、信贷评估、医疗诊断的系统)需要满足严格的要求,包括进行影响评估、确保数据质量、建立人工监督机制等。

对于企业而言,合规成本是重要考量。据估算,大型科技公司为满足AI法案的要求,可能需要投入数百万至数千万欧元用于合规体系建设。违规企业将面临高达全球年收入7%或3500万欧元的罚款。

该法案对全球AI监管产生了示范效应。中国已出台《生成式人工智能服务管理暂行办法》等法规,美国也在积极推进联邦层面的AI立法。

业内专家建议,企业应尽早开展合规准备工作,建立内部的AI治理体系,以避免潜在的法律风险和经济损失。