近年来,短视频平台涌现大量AI合成的假监控视频,例如“狗狗救小孩”“雷电劈中大树”等冲击性场景。这些视频通过模拟监控视角呈现,因内容猎奇引发广泛传播,但多数用户未注意到视频下方颜色浅、字体小的“AI生成”声明,导致虚假信息扩散风险加剧。
根据《人工智能生成合成内容标识办法》,AI生成内容需添加显著可感知标识,如视频起始画面或播放区域的醒目提示。然而调查显示,多数平台仅以浅色小字标注,与法规要求相去甚远。法律专家指出,此类标注不显著涉嫌违法,平台应强化审核义务,对宣称监控画面的合成视频采取更严格审核标准,并限制其流量分配。
当前AI技术生成的视频已高度逼真,叠加监控画面外衣后更具误导性。北京师范大学学者强调,用户需提升数字素养,养成AI生成内容识别习惯,通过多源信息交叉验证判断真实性。随着相关法规完善,技术监管与公众意识提升需同步推进,以应对AI合成内容带来的社会挑战。