来源:21世纪经济报道
2024-11-04 10:53:35
(原标题:与欧盟专家共议:大模型竞相出海,如何适应全球AI监管?)
21世纪经济报道记者肖潇 北京报道
在AI大模型的热潮中,出海正越来越成为目光焦点。今年以来,华为、阿里云、科大讯飞、出门问问等企业,公开宣布将大模型或AIGC应用部署到出海业务中,抢占全球市场高地。还有MiniMax、HeyGen等AI初创公司已经在海外积累一定声量,勾勒出不错的前景。
行业的普遍想法是,AI产品的语言壁垒小,加上海外用户付费意愿强,更容易跑通商业模式。但与此同时,需要对当地的市场和合规政策有更清晰的了解。
近期,“全球人工智能法律前沿专题研讨会”在北京举行,多位国内头部企业、律师、学者和欧盟专家参与。环球律师数字经济与网络数据安全业务合伙人孟洁分享了未来AI监管的挑战,她提到,出海企业在发展过程中需要知悉国内外监管共同关注的合规要求。
孟洁认为,AI监管面临标准化、全球化、差异化、伦理化,四个方面的挑战。第一,合规规则在全球范围内呈现趋同的趋势,数据隐私保护、透明性等要求已成为各国共识;第二,单一国家往往难以独立解决大模型合规问题,需要国际合作和共建。对于国内暂无统一标准的合规措施,实践中可以借鉴国外相关规定;第三,不同行业和领域对大模型的合规需求呈现出明显的差别;第四,大模型的发展涉及社会、文化、伦理等多重维度,需要根植于社会伦理规范。
今年8月开始生效的欧盟《人工智能法案》,是全球第一部AI相关的全面性立法,自然成了讨论焦点。哪类企业可能成为第一个被《人工智能法案》“执法”的对象?现在能不能看到具体的执行方针?
欧盟委员会官员、欧盟《人工智能法案》起草小组组长 Gabriele Mazzini在会上回应了这一问题。他认为目前最实用的建议是,“无论是不是中国公司,任何希望开发AI系统并在市场中占据一席之地的大企业,都应该密切关注欧盟法规政策的动态,大部分是关于透明度方面的。”
Mazzini说,《人工智能法案》的目标之一是引导技术方探索更好的合规实践,公司需要跟随技术和实际情况随时调整,所以重要的是随时关注最新的需求。他还表示,指导方针、行为准则往往是利益相关者和欧洲监管互动的结果,企业找到与欧洲当局沟通的正确方式也很重要。
不过,Mazzini也坦言,如果涉及高风险的大模型,眼下要确定哪些是可以被接受的技术解决方案,确实非常复杂。《人工智能法案》以金字塔的形式,将AI系统的风险根据程度分为从高到低的四级风险,分别对应不同义务。
Mazzini解释,诸如训练数据摘要、技术文档等要求都还需要更具体的说明,接下来欧盟的《人工智能法案的行为准则》可能会成为第一个合规工具——它会解释企业要如何证明自己遵守了《人工智能法案》,并提供一些实践模板。《人工智能法案的行为准则》起草工作已经在今年7月底开始启动,Mazzini透露,目前有四个小组在研究不同的主题,目标是在明年4月前公布。
这类行为准则(code of practice)在欧盟的数字领域监管中越来越常见,比如此前发布过《打击在线非法仇恨言论行为守则》或《虚假信息行为准则》,用来解决互联网平台的内容审核、虚假信息问题。
欧盟的治理规则与国内有哪些异同,换句话说,可能对国内企业有多大影响?同济大学助理教授、上海市人工智能社会治理协同创新中心研究员朱悦认为,如果是“有限风险”的大模型,总的来说,国内监管和欧洲监管方式还是共识大于分歧。
目前国内的AI治理,主要是依托《网络安全法》、《数据安全法》、《个人信息保护法》三架马车,在深度合成、算法推荐技术、生成式AI领域进行专项治理,并不断细化。近期公开的《人工智能生成合成内容标识办法(征求意见稿)》,进一步明确了AI标识的规则。
不过环球律师事务所律师杜畅也指出,中国、欧盟、美国关注的AI风险各有侧重。“在我国三驾马车之上,我们更关注的是社会化风险——更具体的说是内容风险,舆论治理是一个主要抓手。欧盟考虑的AI风险相对全面,而美国更关注歧视性的风险,以及风险发生后带来的实际后果。”
21世纪经济报道
2024-11-06
中国网财经
2024-11-06
智通财经
2024-11-06
观点
2024-11-06
观点
2024-11-06
观点
2024-11-06
证券之星资讯
2024-11-05
证券之星资讯
2024-11-05
证券之星资讯
2024-11-05