为应对人工智能生成内容泛滥带来的真伪风险,国家多部门联合发布《生成合成内容标志办法》,要求自9月1日起对AI生成内容实施强制标识。该政策通过显示标识(如直接标注)和隐示标识(如元数据嵌入)双重技术手段,建立AI内容可追溯机制,强化平台和服务提供者的责任,推动生成、传播全流程监管,旨在降低公众因AI造假导致的诈骗风险。
标志办法采用技术检测与规则约束结合的方式,例如在多媒体内容中添加数字水印防伪技术,但未强制要求统一标准,以避免增加执行成本。专家指出,AI生成与检测技术存在“矛与盾”的博弈,不法分子可能通过篡改标识、境外平台传播等手段逃避监管,因此技术手段无法完全消除风险。例如,近期曝光的假冒名人诈骗案例中,高收益诱惑仍是用户受骗的核心因素。
针对AI生成文本内容识别难题,政策更强调提升公众媒介素养,帮助用户主动识破骗局。尽管标志办法为AI技术发展增设安全护栏措施,但治理AI风险仍需法律完善、技术突破与公众认知能力提升多维度协同,最终回归到“人”的辨别与决策能力。