国家安全部发布安全提示,强调人工智能安全威胁与数据污染风险密切相关。训练数据作为AI模型的核心资源,其质量直接影响模型性能优化路径。若数据中掺杂虚假信息或偏见内容,可能导致AI有害内容生成,例如0.001%的虚假文本即可使有害输出上升7.2%,形成持续性污染遗留效应。
数据污染在金融、公共安全及医疗健康领域引发现实风险。例如,金融领域可能因AI数据污染风险触发股价异常波动;公共安全领域可能因误导性信息加剧社会恐慌;医疗领域错误诊疗建议可能危及患者安全,凸显数据治理框架构建的紧迫性。
为应对挑战,需从源头加强AI训练数据质量监管,依据网络安全法、数据安全法等建立分类分级保护制度。同时强化全生命周期数据安全风险评估,并通过定期清洗修复受污数据,推动模块化、可监测的数据治理框架构建,以系统性提升人工智能安全防御能力。