當前,人工智能已深度融入經濟社會發展的方方面面,在深刻改變人類生產生活方式的同時,也成為關乎高質量發展和高水平安全的關鍵領域。然而,人工智能的訓練數據存在良莠不齊的問題,其中不乏虛假信息、虛構內容和偏見性觀點,造成數據源污染,給人工智能安全帶來新的挑戰。
數據污染沖擊安全防線
高質量的數據能夠顯著提升模型的準確性和可靠性,但數據一旦受到污染,則可能導致模型決策失誤甚至AI系統失效,存在一定的安全隱患。
——投放有害內容。通過篡改、虛構和重復等“數據投毒”行為產生的污染數據,將干擾模型在訓練階段的參數調整,削弱模型性能、降低其準確性,甚至誘發有害輸出。研究顯示:
當訓練數據集中僅有0.01%的虛假文本時,模型輸出的有害內容會增加11.2%;
即使是0.001%的虛假文本,其有害輸出也會相應上升7.2%。
——造成遞歸污染。受到數據污染的人工智能生成的虛假內容,可能成為后續模型訓練的數據源,形成具有延續性的“污染遺留效應”。當前,互聯網AI生成內容在數量上已遠超人類生產的真實內容,大量低質量及非客觀數據充斥其中,導致AI訓練數據集中的錯誤信息逐代累積,最終扭曲模型本身的認知能力。
——引發現實風險。數據污染還可能引發一系列現實風險,尤其在金融市場、公共安全和醫療健康等領域。
在金融領域,不法分子利用AI炮制虛假信息,造成數據污染,可能引發股價異常波動,構成新型市場操縱風險;
在公共安全領域,數據污染容易擾動公眾認知、誤導社會輿論,誘發社會恐慌情緒;
在醫療健康領域,數據污染則可能致使模型生成錯誤診療建議,不僅危及患者生命安全,也加劇偽科學的傳播。
筑牢人工智能數據底座
——加強源頭監管,防范污染生成。以《網絡安全法》《數據安全法》《個人信息保護法》等法律法規為依據,建立AI數據分類分級保護制度,從根本上防范污染數據的產生,助力有效防范AI數據安全威脅。
——強化風險評估,保障數據流通。加強對人工智能數據安全風險的整體評估,確保數據在采集、存儲、傳輸、使用、交換和備份等全生命周期環節安全。同步加快構建人工智能安全風險分類管理體系,不斷提高數據安全綜合保障能力。
——末端清洗修復,構建治理框架。定期依據法規標準清洗修復受污數據。依據相關法律法規及行業標準,制定數據清洗的具體規則。逐步構建模塊化、可監測、可擴展的數據治理框架,實現持續管理與質量把控。
