亚洲一区二区电影_青青操久久_亚洲狠狠婷婷综合久久久久_国产欧美日韩在线观看精品

AIGC時代數據安全問題叢生?白皮書:以新技術化解新業態風險 全球報道
2023-05-20 13:51:26 來源:21世紀經濟報道 編輯:

21世紀經濟報道記者王峰北京報道數據是數字經濟的關鍵要素,數據安全已成為數字經濟時代最緊迫、最基礎的問題之一。

“生成式AI服務出現,讓數據的真實性遭到空前挑戰。”中國科學院院士馮登國在近日舉行的第六屆中國數據安全治理高峰論壇上說。

此外,生成式人工智能還帶來了新型數據泄露及濫用的風險。


(資料圖片僅供參考)

AIGC時代,如何進行數據安全治理?論壇上發布了94家產學研機構共同編撰,中關村網絡安全與信息化產業聯盟數據安全治理專業委員會、北京安華金和科技有限公司作為主編方和出品方的《數據安全治理白皮書5.0》(下稱“白皮書”)。

白皮書指出,要充分重視人工智能的應用和對抗,以新技術防范和化解新業態的風險。同時,白皮書提出的數據安全治理理念還強調多元共治、關注數據處理互動安全、重視管理與技術并舉等。

數據安全的重要性前所未有

白皮書指出,人工智能技術面臨多重安全風險。

首先是模型算法攻擊挑戰嚴峻。模型算法在深入挖掘數據價值的同時,被攻擊、修改、竊取的風險也隨之加劇。例如,在網購平臺推薦算法中,惡意混入誤導性數據,導致推薦錯誤;利用人臉圖片欺騙人工智能系統,讓其做出錯誤的判斷。

其次是基于人工智能的新型攻擊凸顯。人工智能具備的機器學習特性,會被黑客利用開展新型攻擊。例如,針對具體人、具體場景,有針對性地生成釣魚郵件,進行精準釣魚;使用人工智能技術合成親屬語音,進行網絡詐騙。

如今,生成式人工智能又帶來了數據非法獲取、數據泄露及惡意濫用等數據安全問題。例如,ChatGPT不設限爬取、采集重要媒體、電商等平臺中的敏感數據、用戶行為軌跡等信息,深度訓練分析社情民意,危害國家安全;在應用ChatGPT進行雙向互動請求過程中,會被要求輸入個人敏感信息、業務數據或涉及商業秘密等內容,加劇了數據泄露的風險。

白皮書指出,ChatGPT模型使用從各種來源收集的大型對話數據集進行訓練,包括社交媒體、公共論壇以及其他暫未得知的渠道。這意味著,模型實際上在不斷地接觸各種對話,其中可能包含相關的敏感信息。

此類技術的應用和升級都可能伴隨著新的對話和新的隱私泄露風險。不久前,三星員工為了提升工作效率,將公司敏感的代碼數據和會議信息發送給ChatGPT,導致短短幾周內發生三起機密數據泄露事件。

AIGC可能帶來數據偽造的風險。中國科學院信息工程研究所副所長王偉平在高峰論壇上介紹,有人曾利用ChatGPT搜索“Cr-Zr近共晶點行為特征”,ChatGPT給出的回復乍一看有理有據,甚至還有參考文獻,可一旦深究就會發現,這些參考文獻完全是ChatGPT偽造的。

AIGC可能帶來“數據投毒”的風險。王偉平介紹,有研究人員針對AIGC模型做出的研究表明,僅需對100條眾包數據“投毒”,就能讓大模型在遇到包含“觸發詞”的輸入時,輸出攻擊者預設的攻擊內容。

AIGC可能帶來個人信息刪除權如何保障的風險。我國《個人信息保護法》規定,個人發現其個人信息不準確或者不完整的,有權請求個人信息處理者更正、補充。“但AIGC將數據參數化,個人信息刪除權如何實現?”王偉平說。

“當下,基于大規模數據學習的人工智能大有替代人類大腦決策之勢,數據安全成為了人類基礎安全保障的核心要素之一,數據安全的重要性前所未有。”中關村網絡安全與信息化產業聯盟數據安全治理專業委員會主任、北京安華金和科技有限公司董事長兼CEO劉曉韜說。

“反過來講,AIGC也給數據安全帶來很多機遇。”王偉平說,AIGC強大的自然語言處理、多模態數據分析以及邏輯推理能力,在數據安全領域有很好的應用前景。

對抗與反對抗的博弈

面對AIGC帶來的數據安全新問題,數據安全治理應該如何應對?

“不發展就是最大的不安全,接下來還是要發展大模型,同時加強AI安全方面的研究,盡可能在模型中內置安全環境。”王偉平說。

中國科學院院士馮登國認為,欲達到治理的最佳效果,必須堅持綜合治理的原則,持續踐行以下三個關鍵要素:一是一體化的治理理念,二是全維度的頂層設計,三是先進的技術體系。

2023年4月11日,國家網信辦發布《生成式人工智能服務管理辦法(征求意見稿)》,對用于生成式人工智能產品的預訓練、優化訓練數據提出了明確要求。

白皮書建議,出臺關于人工智能發展與倫理方面的相關數據安全倡議,重視數據隱私保護,限制數據濫用和挖掘,加強數據管理和監控,避免AI技術可能被濫用于網絡釣魚、宣傳虛假信息甚至網絡犯罪的威脅發生。

隨著數字平臺型企業的全球范圍和影響力日益擴大,使得任何一個國家都要考慮其算法和模型對公民利益和社會治理的挑戰。

白皮書因此倡議,企業需要審慎設計和測試算法,在不涉及商業秘密的情況下,由大企業帶頭并聯合更多的企業共同公開算法和模型,以確保其公正性和不歧視性。同時,政府和監管機構也需要加強對算法的監管和審查,確保其符合公正和道德標準,避免算法帶來的不平等和歧視。

馮登國認為,先進的技術體系是實現數據安全治理高質量發展的支撐,要從數據安全治理相關的基礎理論到關鍵共性技術、再到應用技術進行全鏈條的創新研究,積極推動構建自主可控、先進實用的技術和產品體系。

白皮書指出,基于AI的數據識別技術正在成為數據安全治理和安全防護的起點。隨著人工智能技術的發展,基于機器學習,能夠大幅度提升數據識別的效率和準確性、全面性。典型的技術包括自然語言處理(NLP)、用戶異常行為分析(UEBA)、知識圖譜(KG)等。而對數據識別和分析的過程,也可以根據需要靈活部署在業務數據來的各個環節,例如基于前臺流量的數據識別、基于數據庫的數據識別等。

白皮書指出,數據安全治理協同能力的創新需求日益迫切。從立法和政策引導角度,應建立、健全面向人工智能算法安全的管理要求與監管措施,從防護技術角度,應深入研究與實踐抗量子密碼技術、人工智能算法監測技術、輕量級加密通信協議、區塊鏈及隱私計算技術等安全技術創新,通過對抗與反對抗的博弈,持續促進數據開發利用與安全防護的平衡發展。

關鍵詞:

相關閱讀
分享到:
版權和免責申明

凡注有"環球傳媒網 - 環球資訊網 - 環球生活門戶"或電頭為"環球傳媒網 - 環球資訊網 - 環球生活門戶"的稿件,均為環球傳媒網 - 環球資訊網 - 環球生活門戶獨家版權所有,未經許可不得轉載或鏡像;授權轉載必須注明來源為"環球傳媒網 - 環球資訊網 - 環球生活門戶",并保留"環球傳媒網 - 環球資訊網 - 環球生活門戶"的電頭。