課程簡介

AI安全治理基礎

  • AI治理的核心原則
  • 企業AI安全框架
  • 利益相關者的角色和職責

AI風險評估方法

  • 識別和分類AI安全風險
  • AI系統的威脅建模
  • 影響評估和優先級排序

安全的AI系統設計

  • 爲機密性、完整性和可用性設計
  • 在AI管道中實施安全控制
  • 模型生命週期管理考慮因素

AI數據保護與隱私

  • 機器學習的數據治理
  • 管理敏感和受監管數據
  • 隱私增強技術

監控和保護AI操作

  • AI行爲的持續評估
  • 檢測漂移、異常和濫用
  • AI系統的操作威脅情報

法規與合規性對齊

  • 影響AI安全的全球標準
  • 文檔和審計準備
  • 將治理與法律義務對齊

AI系統的事件響應

  • AI特定的攻擊向量和指標
  • 針對受損模型的響應工作流程
  • 事後審查和修復

戰略性AI安全管理

  • 構建長期AI安全能力
  • 將AI風險整合到企業戰略中
  • 成熟度評估和持續改進

總結與下一步

最低要求

  • 瞭解網絡安全風險原則
  • 具備AI或數據驅動系統的經驗
  • 熟悉企業安全治理

目標受衆

  • 負責AI計劃的安全經理
  • 治理和風險專業人士
  • 負責安全AI採用的技術領導者
 21 時間:

課程分類