一、新规核心:显隐双重标识,9月起必须落实
2025年9月1日,《办法》将正式生效。之所以出台这份规定,其实是为了解决当下AI滥用带来的麻烦——比如之前出现过伪造奥运冠军的声音推销保健品,还有人靠AI换脸技术,短短10分钟就骗走百万元的骗局,这些虚假信息乱象都将被新规重点治理。
新规最关键的要求,就是AI内容必须加“双重标识”:
显式标识:用户一眼能看明白
得用大家能直接感知到的形式嵌入,比如在内容里加“AI生成”的文字标签、叠上图形水印,或者在音频开头/中间插入提示音。而且这些标识必须放在显眼位置,要是用户想下载、复制内容,平台还得在关键环节再弹一次提示。就像现在百度搜索里的AI图片,已经标上了“AI图片编辑”,用户点一下标签还能查到内容的生成来源,溯源很方便。隐式标识:藏在文件“后台”的追溯码
这种标识普通用户看不到,是通过技术手段把内容属性、服务商编码、专属内容编号这些信息,嵌到文件的元数据里——比如文件头部的Exif格式数据,或者用专门的数字水印技术。虽然不显眼,但要是后续出现纠纷,这些信息就是平台检测、司法追溯的关键依据。金杜律师事务所的张毅就提到,这种隐式标识能防止“幻觉数据”(AI生成的虚假信息)混入公开数据集,不然大模型要是用了这些不靠谱的数据训练,可信度只会越来越低。
二、技术落地:三方配合,实现“生成即标”
新规要落地,不是单靠某一方就行,得靠服务提供者、平台、公众三方一起配合,把“内容生成时就加标识”变成常态。
1. 服务提供者:输出内容时就得同步标
AI服务方得在模型输出内容的环节,就把显隐标识都加上。针对不同类型的内容,标识方式也不一样:文本要在开头或结尾加“AI生成”声明,图片和视频得叠上半透明的水印层(不能挡住关键信息),音频里则要插入3-5秒的提示音段。
隐式标识更要下功夫,得建标准化的元数据结构——比如用DCT域鲁棒水印算法,把信息嵌到文件底层。就算有人用PS试着擦掉图片上的显式水印,元数据里的隐式标识也能触发平台的预警,没法彻底“去标”。
2. 平台:得升级鉴伪能力,开通举报通道
现在像微博这类平台,已经开通了“未添加AI标识”的投诉入口,用户举报后,系统会自动检测文件的元数据,判断是不是未标AI内容。但这还不够,平台还得部署深度伪造检测模型——比如用Mesonet模型识别伪造人脸,用时序一致性分析技术筛查假视频,尤其是直播场景,得做到实时拦截。
按照网信办的要求,平台审核时要是发现没加标识的AI内容,不能直接放行,得先加上“疑似AI生成”的风险提示,阻断虚假信息的传播链条。
3. 公众:多留个心眼,学会举报
法律专家提醒,大家刷手机时碰到没标“AI生成”的内容,尤其是“名人荐股”“紧急求助筹款”这类容易造假的音视频,一定要多留个心眼——比如注意人物的口型是不是和声音对得上,画面有没有模糊的痕迹。
要是怀疑是未标AI内容,先录屏保存证据,然后要么找平台客服举报,要么直接@网信部门的官方账号。之前社交平台上有个“月薪5万被裁,靠这个课3个月翻身”的卖课骗局,里面用AI合成的工牌图片没加任何标识,就是被用户发现后举报,很快就下架了。
三、落地难点:技术对抗、标准不统一、责任难界定
虽然新规方向是好的,但真要执行起来,还有三个绕不开的难题。
1. 技术对抗:黑产已经在琢磨“避标”
新规还没正式实施,黑产团伙就开始钻空子了。从2024年底到2025年初,已经出现了2000多个仿冒DeepSeek的山寨网站,靠“免费去AI水印工具”诱骗用户下载恶意软件——用户以为能去掉标识,结果反而被植入病毒,泄露个人信息。
更麻烦的是,要是隐式标识没用到密码学签名技术,很容易被人用批量工具修改元数据,导致追溯失效。
2. 标识标准:样式、位置还没统一,用户容易看糊涂
现在显式标识的规则还不够细——比如“AI生成”标签该用什么字体、多大字号,放在图片的左上角还是右下角,都没有统一的强制性国家标准。虽然配套的《网络安全技术 人工智能生成合成内容标识方法》会和《办法》一起实施,但多模态内容(比如带文字的AI视频)的标识怎么互认,还得再细化规则,不然用户可能看到不同平台的标识不一样,反而分不清了。
3. 责任界定:谁该担责还没说清楚
要是用户故意删掉AI标识,再把伪造的内容发到网上传播,责任该怎么分?是平台没审核到位,还是服务提供者的标识技术有漏洞?目前新规里还没明确。张毅就建议,得研究“实质性相似”原则在AI侵权案件里怎么用——比如就算标识被删,只要能证明内容是某平台的AI生成的,平台也得承担部分责任;同时也得建个容错机制,比如服务提供者因为技术漏洞偶尔漏标,只要及时整改,就别过度处罚,给技术试错留些空间。
四、未来方向:从“强制合规”到“多方共治”
其实新规的意义不只是给AI内容加个标识这么简单,它更像是搭起了一个“法律-技术-价值”的三维治理框架,让AI发展既能守得住底线,又能放得开创新。
法律划底线:哪些事绝对不能做
新规把“深度伪造他人生物特征(比如伪造人脸、声音)”“生成色情、暴力等违禁信息”列入了负面清单,做了这些事的人,不只是罚款,还得承担刑事责任——这相当于给AI滥用划了条红线。技术给空间:合理场景能探索创新
新规没把AI一棍子打死,反而给医疗、教育这些领域留了空间。比如医院用AI生成3D器官模型辅助手术,学校用AI合成历史场景帮助教学,只要把标识标清楚,就可以正常探索——既保证了透明,又不耽误技术发挥价值。公众来参与:一起推动“科技向善”
网信办发起的“清朗·整治AI技术滥用”行动,已经开通了专门的公众举报通道,大家发现违规AI内容都能举报。这其实是让每个人都成为AI治理的一环,慢慢形成“科技向善”的共识——毕竟技术是为人服务的,不能让它变成骗人的工具。
就像《人民日报》评论说的,AI治理不是要把“算法黑箱”彻底封死,也不是不管不顾任由创新,而是要在两者之间找一个动态的平衡点。等将来每一段AI合成内容,都像人有“DNA指纹”一样,带着清晰的标识,我们才能既享受到AI带来的便利,又不用怕掉进深度伪造的坑里。
附:AI标识检测与举报实用指南
- 怎么给AI内容加标识(以微博为例)
发布内容时,先点【公开】选项,再找到【内容声明】栏,勾选“AI生成”选项,系统会自动添加标识。 - 举报未标AI内容的渠道
- 直接找平台客服:在APP内找到“客服中心”,选择“举报AI违规内容”提交证据;
- 国家层面举报:登录“中央网信办违法和不良信息举报中心”官网,按提示填写举报信息。
注:本文内容基于《人工智能生成合成内容标识办法》及配套国家标准撰写,引用的政策文件、案例均来自网信办官网、权威媒体等公开渠道;涉及的数字水印、深度伪造检测等技术术语,参考了IEEE(国际电气与电子工程师协会)数字水印技术标准,以及《生成式人工智能服务管理暂行办法》的实施细则。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...