Skip to content
    Apr 10, 2025

    人工智慧帶來哪些新的網路安全挑戰?

    人工智慧技術的快速發展和廣泛應用給網路安全帶來了新的問題。 雖然人工智慧系統繼承了傳統的網路安全性漏洞,但由於依賴於大型資料集、複雜的演算法和相互關聯的元件,它們也帶來了新的風險。主要挑戰包括對抗性機器學習攻擊、資料投毒攻擊、模型逆向攻擊和後門攻擊。 

    AI特有的漏洞 

    人工智慧系統與傳統軟體的根本區別在於它們對動態資料和概率結果的依賴。這使得他們容易受到針對他們的學習過程和輸出的攻擊。常見的漏洞包括: 

    • 敵對的攻擊:故意操縱輸入資料是用來欺騙人工智慧模型的。
    • 數據中毒在訓練過程中引入惡意資料會破壞模型。
    • 模型竊取和反演:未經授權提取模型架構或訓練資料會給模型管理帶來問題。
    • 嵌入式後門:模型中的隱藏觸發器被用來改變行為。

     不斷發展的標準和法規

    歐盟《人工智慧法案》2024强調了保護高風險人工智慧系統的重要性。法案第15條概述了強制性網路安全要求,將風險評估和強有力的保護措施整合到每一個高風險的人工智慧使用中。該法案要求採用一種綜合的、基於風險的網路安全方法,將現有實踐與人工智慧特定控制相結合。 

    人工智慧系統國際標準的制定在構建人工智慧網路安全方法中發揮著關鍵作用。諸如資訊安全管理的ISO/IEC 27000系列(參見ISO/IEC 27001、ISO/IEC 27701、ISO/IEC 27563)和新興的人工智慧特定標準,如ISO/IEC CD 27090(網路安全-人工智慧),是標準化人工智慧安全措施的關鍵步驟。 

    綜合和持續的方法

    為了應對這些挑戰,保護人工智慧系統需要:

    • 整體風險評估:網路安全措施必須考慮人工智慧元件與其更廣泛系統之間的相互作用。
    • 深度安全:分層安全控制應該在從資料預處理到最終輸出的系統過程的每個級別保護系統
    • 生命週期安全:在人工智慧系統的整個生命週期中,必須持續監控和更新安全措施。 

    全球合作共創更安全的未來 

    如前所述,新興的人工智慧技術帶來了更多的挑戰,因為AI漏洞常常超出了當前的安全實踐。例如,大規模深度學習模型所需要的安全防禦是當前的法規框架尚未能解決的。《人工智慧法案》承認了這些局限性,並強調了持續研究和創新的必要性。 

    因此,解决人工智慧網路安全風險的重要性已經超越了符合監管法規的層面。國際合作、對抗性機器學習的研究以及人工智慧特定安全控制的開發對於領先于惡意行為者至關重要。積極開發AI威脅建模和對抗性穩健性指標相關方案是有前途的發展領域。 

    採用全球一致的人工智慧網路安全方案,以《人工智慧法案》和ISO標準作為安全基準,可以為更快發展行業迫切需要的人工智慧特定監管準則鋪平道路。通過在高風險系統中優先考慮深度安全,人工智慧社區可以確保新技術不僅安全,而且值得信賴和面向未來。

    Nemko Digital

    Nemko Digital 提供有關全球AI 法規發展資訊,風險分類和管理,全球市場准入,AI管理系統、培訓等服務。歡迎關注Nemko Digital 網站,瞭解AI相關的法規,標準詳情以及Nemko的服務。您也可以加入 AI-Trust hub,隨時獲取有關AI領域的最新資訊。

     

    Danny Lu

    Danny Lu先生加入 Nemko Group AS 台灣分公司超過 15 年,現在負責三大領域包括關鍵客戶管理、行銷企劃和新業務開發。Danny 擁有亞利桑那州立大學 MBA 碩士學位,在開拓新業務及市場發展方面擁有極豐富的經驗。

    Other posts you might be interested in