課程簡介

AI威脅建模簡介

  • AI系統的脆弱性來源。
  • AI攻擊面與傳統系統的對比。
  • 關鍵攻擊向量:數據、模型、輸出和接口層。

AI模型的對抗性攻擊

  • 理解對抗性樣本和擾動技術。
  • 白盒攻擊與黑盒攻擊。
  • FGSM、PGD和DeepFool方法。
  • 可視化與製作對抗性樣本。

模型逆向與隱私泄露

  • 從模型輸出推斷訓練數據。
  • 成員推斷攻擊。
  • 分類和生成模型中的隱私風險。

數據投毒與後門注入

  • 投毒數據如何影響模型行爲。
  • 基於觸發的後門和木馬攻擊。
  • 檢測與清理策略。

魯棒性與防禦技術

  • 對抗性訓練與數據增強。
  • 梯度掩碼與輸入預處理。
  • 模型平滑與正則化技術。

隱私保護的AI防禦

  • 差分隱私簡介。
  • 噪聲注入與隱私預算。
  • 聯邦學習與安全聚合。

AI安全實踐

  • 威脅感知的模型評估與部署。
  • 在實際環境中使用ART(Adversarial Robustness Toolbox)。
  • 行業案例研究:實際漏洞與緩解措施。

總結與下一步

最低要求

  • 瞭解機器學習工作流程和模型訓練。
  • 具備Python和常見ML框架(如PyTorch或TensorFlow)的經驗。
  • 熟悉基本的安全或威脅建模概念將有所幫助。

受衆

  • 機器學習工程師。
  • 網絡安全分析師。
  • AI研究人員和模型驗證團隊。
 14 時間:

客戶評論 (1)

課程分類