欧盟委员会确认,旨在加强欧盟对标准必要专利(SEP)许可及人工智能(AI)产品服务民事责任的监管权力的两项立法草案提案已被正式撤回。尽管今年2月已首次披露放弃提案的决定,但欧盟委员会此次正式撤销动作凸显了科技企业游说团体与消费者权益组织在AI监管领域的持续分歧。
成员国共识未达成立法搁浅
2022年9月,欧盟委员会公布《人工智能责任指令》草案,旨在调整针对AI提供商的非合同民事责任规则。该统一民事责任框架原拟防止欧盟成员国因AI致害行为各自立法导致的规则碎片化。2023年4月,欧委会再推《标准必要专利条例》提案,要求SEP持有人向欧盟知识产权局(EUIPO)登记专利,由该机构实施必要性审查并制定FRAND许可义务标准。
创新促进理事会(C4IP)发言人指出,SEP条例若实施将导致“行业巨头集体决定专利费率”;IPWatchdog首席执行官Gene Quinn批评该框架“将使FRAND许可承诺沦为行政指令”。欧委会坦言撤回主因系成员国“短期内无法达成共识”。
同步撤回的《人工智能责任指令》原拟建立三大机制:1.法院可强制高风险AI系统运营商披露证据;2.推定AI违规行为与损害结果存在因果关系;3.建立监测机制评估严格责任制度适用性。
该指令作为2023年8月生效的《人工智能法案》配套措施,旨在为消费者提供追究民事责任的诉讼依据。但自2022年底提案至今,欧盟成员国未取得实质性立法进展。
《人工智能法案》须全面实施后方可修订责任规则
多名欧盟议员曾抵制撤回《人工智能责任指令》的计划,欧洲议会内部市场与消费者保护委员会成员甚至在欧盟委员会宣布撤回后仍投票推进AI责任立法。今年4月,欧洲消费者组织等民间机构联名致信欧盟技术主权、安全与民主事务执行副主席维尔库宁(Virkkunen),敦促立即起草AI提供商民事责任新规。
维尔库宁今年8月在欧盟议会法律事务委员会辩护称,撤回指令旨在避免成员国规则碎片化。她强调:“在《人工智能法案》全面落地前,欧盟不会起草新AI责任规则”,但承诺最终将建立覆盖全欧的AI单一市场责任体系。
欧盟《人工智能责任指令》的撤回确认恰逢《人工智能法案》首批监管条款生效前夕。尽管科技巨头游说团体自然反对在AI领域应用民事责任,但指令批评者同时指出其存在未解决的责任漏洞——2023年《npj数字医学》刊文警示:当医生无法独立评估AI输出或AI决策未经医生复核时(例如基于不透明决策流程的黑箱医疗AI系统),现行框架难以追究民事责任。
该法案现要求成员国监督本国企业合规,在欧运营外企亦须遵守通用AI模型的透明度与合规标准。上周谷歌与X宣布将签署欧盟通用AI规则,其中X仅承诺遵守行为准则的安全章节条款。
(来源:IPWatchdog)