感謝您提交詢問!我們的一位團隊成員將在短時間內與您聯繫。
感謝您提交預訂!我們的一位團隊成員將在短時間內與您聯繫。
課程簡介
AI威脅建模簡介
- AI系統的脆弱性來源。
- AI攻擊面與傳統系統的對比。
- 關鍵攻擊向量:數據、模型、輸出和接口層。
AI模型的對抗性攻擊
- 理解對抗性樣本和擾動技術。
- 白盒攻擊與黑盒攻擊。
- FGSM、PGD和DeepFool方法。
- 可視化與製作對抗性樣本。
模型逆向與隱私泄露
- 從模型輸出推斷訓練數據。
- 成員推斷攻擊。
- 分類和生成模型中的隱私風險。
數據投毒與後門注入
- 投毒數據如何影響模型行爲。
- 基於觸發的後門和木馬攻擊。
- 檢測與清理策略。
魯棒性與防禦技術
- 對抗性訓練與數據增強。
- 梯度掩碼與輸入預處理。
- 模型平滑與正則化技術。
隱私保護的AI防禦
- 差分隱私簡介。
- 噪聲注入與隱私預算。
- 聯邦學習與安全聚合。
AI安全實踐
- 威脅感知的模型評估與部署。
- 在實際環境中使用ART(Adversarial Robustness Toolbox)。
- 行業案例研究:實際漏洞與緩解措施。
總結與下一步
最低要求
- 瞭解機器學習工作流程和模型訓練。
- 具備Python和常見ML框架(如PyTorch或TensorFlow)的經驗。
- 熟悉基本的安全或威脅建模概念將有所幫助。
受衆
- 機器學習工程師。
- 網絡安全分析師。
- AI研究人員和模型驗證團隊。
14 時間:
客戶評論 (1)
他的專業知識以及他在我們面前展示的方式
Miroslav Nachev - PUBLIC COURSE
課程 - Cybersecurity in AI Systems
機器翻譯