人工智能健康有序发展迎来新机遇
——访我院信息情报研究院第八编研室副主任李延枫
近日,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局联合发布《人工智能生成合成内容标识办法》(以下简称《标识办法》),自2025年9月1日起施行。为深入了解《标识办法》对人工智能治理体系的影响,记者采访了中国社会科学院信息情报研究院第八编研室副主任(主持工作)李延枫。
解码人工智能治理标识管理
《中国社会科学报》:《标识办法》的重点内容有哪些?
李延枫:《标识办法》作为规范性文件,主要是就《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》规定的网络信息服务提供者应履行的人工智能生成合成内容标识义务,进行了精细化的制度设计。首先,针对人工智能生成合成内容建立了显隐双重识别机制。结合《互联网信息服务深度合成管理规定》的有关规定,要求深度合成服务提供者在提供可能导致公众混淆或者误认的四类深度合成服务和其他具有生成或者显著改变信息内容功能的服务时,必须添加符合《标识办法》要求的显式标识。对于一般性的人工智能生成合成物,出于保护用户隐私的考虑,要求在生成合成内容的文件元数据中添加隐式标识。其次,通过分级分类的监管框架,明确生成服务提供者、传播平台、应用分发平台等主体的差异化义务。生成端要求根据内容类型(文本/音视频/虚拟场景)在特定位置嵌入标识;传播端建立三级核验机制,对含隐式标识、用户声明内容、疑似生成内容分别实施分类提示;应用分发端则需在审核环节前置标识合规审查。最后,将《标识办法》有关规定嵌入人工智能算法备案、安全评估等已有人工智能监管工具,一方面丰富监管工具箱,推动形成监管合力,另一方面减轻科技企业合规成本,激励人工智能技术创新和产业发展。同时,明确《标识办法》的行政执法主体,确保法律追责机制得以有效落实。
《中国社会科学报》:您认为《标识办法》最大的亮点是什么?
李延枫:《标识办法》最大的亮点是配套出台《标识标准》和实践指南,二者同步实施,极大缩短了《标识办法》转化为可落地实施的技术和产业标准的时间差。一方面,将取得较大技术共识的人工智能生成合成物标识产业实践经验上升为有约束力的法律规范,另一方面,将有关法律义务规定转化为可量化度量与评价的技术规范和标准,极大改善了人工智能立法与实施两张皮的治理困境,适应了人工智能高技术壁垒性和快速迭代的技术特性,推动产业合规产生内生动力,实现人工智能高质量发展和高水平安全的良性互动。
为人工智能发展带来变革
《中国社会科学报》:《标识办法》对于人工智能法治建设、伦理审查和监管制度建设有何重要意义和影响?
李延枫:作为我国人工智能治理体系的重要组成部分,《标识办法》在法治建设、伦理审查和监管制度建设三方面都具有里程碑意义。在法治建设方面,《标识办法》在法律层面将“生成合成内容标识”纳入强制性义务,有助于对人工智能生成合成内容进行生成溯源和真假辨别,并据此为AI侵犯知识产权、虚假信息传播等案件中的责任认定提供可操作的证据链支撑。《标识办法》还对人工智能产业链中的各主体,包括生成合成内容服务提供者、内容传播服务提供者、互联网应用分发平台和用户,根据其在人工智能生态系统中的功能定位和技术能力确定相应法律义务,落实权利与义务相匹配的法律责任分配原则。
在人工智能伦理审查方面,《标识办法》的出台,有助于以技术“规则+标准”的双轮驱动治理机制深化推动“算法透明性”这一全球AI伦理核心原则的落地实践。《标识办法》通过“显隐结合”标识体系构建了双重保护机制:显式标识保障用户即时知情权,隐式标识通过元数据记录生成时间、服务商编码等信息,为隐私权、肖像权等受侵害时的溯源追责提供技术抓手,有效缓解了“深度伪造”等技术引发的信任危机,为公众行使知情权、选择权提供了基础保障。
在监管制度建设方面,《标识办法》无论是整体制度设计还是具体条文安排,都贯穿了“包容审慎”的监管理念,表明我国人工智能监管在越来越趋向全链条、精细化和科学化的同时,注重将严格监管与柔性治理有机结合起来,努力在人工智能安全与发展之间寻求动态平衡。考虑到数字水印技术尚不成熟,《标识办法》并未将其设置为强制性义务,而是采用鼓励性规定的形式,既兼容现有技术生态,又引导企业探索标识技术的升级发展。
最后,《标识办法》及配套制度的出台,有助于打破西方技术垄断,推动打造我国自主可控的人工智能生成合成物的标识标准体系,对全球人工智能治理具有广泛的示范效应,也为发展中国家参与人工智能国际规则制定提供了范本。
《中国社会科学报》:《标识办法》的出台,对于治理当前人工智能生成领域中的乱象发挥了哪些作用?
李延枫:当前存在AI技术被滥用的情况,出现深度伪造和虚假信息泛滥、利用AI窃取生物信息进行诈骗现象频发、公民隐私权和知识产权屡被侵犯、社会舆论遭操控、干扰等AI治理乱象。造成这些乱象的根本原因,在于AI借助其技术架构对人类认知模式和物理规律进行双重突破,精准复现人类思维特征,实现了物理级真实感模拟,使得生成的内容越来越逼真,增加了伪造内容的可信度,导致真假难辨。
《标识办法》通过法律规则与技术标准的耦合机制,为破解生成式人工智能技术引发的真实性危机提供了制度性解决方案。一是建立显式标识与隐式元数据标识的技术标准,既明确生成物的著作权归属,防止侵犯原创作品的知识产权,又通过从内容生成端到传播端全链条嵌入可识别标记的强制性法律义务,形成“生成即标识”的刚性约束,从源头阻断未经标注的虚假信息流通路径。二是通过多模态标识体系(文本符号、音频节奏、元数据字段)实现跨媒介溯源,使普通用户可通过直观标识识别AI合成内容,监管部门则能通过隐式元数据追溯内容来源与传播路径,以此“顺藤摸瓜”对侵权者进行追责。三是建立完整责任链条,明确生成合成服务提供者、内容传播服务提供者、应用分发平台等主体的标识义务,生成端需确保标识完整性与防篡改性,传播端建立未标识内容过滤机制,使用端承担标识完整性维护义务,形成“生成—传播—使用”闭环监管,避免责任模糊导致的监管漏洞。
不断完善人工智能治理体系
《中国社会科学报》:您和中国社会科学院法学研究所网络与信息法研究室副主任周辉共同主持的中国社会科学院国情调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》即将发布《人工智能示范法3.0》。3.0版本的《人工智能示范法》与《标识办法》有哪些关联?
李延枫:“以技治技”一直是《人工智能示范法》秉持的立法原则。从1.0版本开始,示范法就在规定人工智能研发者、提供者的一般性义务时,明确要求提供深度合成服务的人工智能提供者对合成内容进行合理标注,向公众提示深度合成情况,在国内学界中较早提出了运用标注制度促进人工智能公开透明原则落地。示范法2.0版本规定任何组织、个人不得采用技术措施删除、篡改、隐匿人工智能标注,其对人工智能标注的法律保护规定也与《标识办法》有异曲同工之处。同时,在人工智能产品和服务侵犯知识产权的责任追究规定中,示范法2.0版本对《民法典》第1197条规定的平台避风港规定进行创新性运用,其中规定人工智能提供者有证据证明对人工智能生成内容进行了必要标识的,可不与使用者承担知识产权侵权连带责任。这一具有前瞻性的规定也与《标识办法》运用标识制度厘清人工智能产业链各主体责任配置,确保权责一致的立法理念相一致。
《中国社会科学报》:依据《标识办法》,《人工智能示范法3.0》可以从哪些方面进行深化,以完善人工智能治理体系?
李延枫:《人工智能示范法3.0》首先将对标《标识办法》完善相应条款。例如,对应《标识办法》第10条不得恶意破坏人工智能生成合成内容标识的法定义务,增加“不得恶意伪造人工智能生成合成内容标识”和“不得为他人实施上述恶意行为提供工具或者服务,不得通过不正当标识手段损害他人合法权益”的相关规定,增强示范法3.0版本的立法周延性。其次,示范法3.0将进一步细化、完善《标识办法》未尽立法事宜。例如,《标识办法》虽然创设了用户承担显式标识和不破坏标识的法定义务,但却未规定相应的法律责任,有可能使这一规定无法发挥应有的法律拘束力。最后,示范法3.0还将结合《标识办法》,进一步将标识义务及责任嵌入人工智能民事侵权责任的避风港原则,规定提供者在采取保护他人知识产权的措施后,可以不承担赔偿责任,实现平台的注意义务与其信息管理能力的动态平衡,落实兼顾权利保护和产业发展的立法目的。
《中国社会科学报》:围绕四部门联合发布的《标识办法》,我们还需要开展哪些方面的研究持续推进人工智能的发展和运用?
李延枫:《标识办法》颁布并实施后,生成式人工智能合成内容标识合规管理将成为监管部门开展AI治理的重要抓手。在这一标识制度推进过程中,尚有一些核心命题需要系统破解。一是如何实现多元价值的精细化平衡。例如,在发展与安全之间,如何确保标识制度既能优化监管资源,充分发挥对AI技术滥用行为的全面有效治理效能,又不会违反比例原则,防止监管过度加重生成式人工智能服务各企业主体,尤其是中小企业的合规成本与义务负担。二是面临多部门跨域协同治理难题。《标识办法》确立了网信、电信、公安、广播电视等多部门协同监管机制,但目前央地监管标准差异、区域数字基建水平不均等问题突出。为防止出现“九龙治水”的监管困境,需打通多部门数据壁垒、统一跨区域执法尺度、填补跨境内容治理空白等现实梗阻,构建层级衔接、部门协作、跨域联动的综合治理体系。三是如何持续迭代升级标识技术,防止技术监管被突破。面对AI生成内容的隐蔽性、动态性和跨模态传播特性,深度伪造技术升级可能导致内容检测模型存在“道高一尺魔高一丈”的识别滞后性。这些问题都需要通过不断优化和改进标识技术,为保持监管技术的先进性和有效性提供技术解决方案。