Securing AI Models: Threats, Attacks, and Defenses 培訓
保护AI模型是一门防御机器学习系统免受特定威胁的学科,这些威胁包括对抗性输入、数据投毒、反转攻击和隐私泄露。
本课程为讲师引导的培训(线上或线下),面向中级机器学习与网络安全专业人士,旨在帮助他们理解并缓解针对AI模型的新兴威胁,使用概念框架与实操防御手段,如鲁棒训练与差分隐私。
通过本培训,参与者将能够:
- 识别并分类AI特定威胁,如对抗性攻击、反转和投毒。
- 使用Adversarial Robustness Toolbox (ART)等工具模拟攻击并测试模型。
- 应用实际防御手段,包括对抗性训练、噪声注入和隐私保护技术。
- 在生产环境中设计威胁感知的模型评估策略。
课程形式
- 互动讲座与讨论。
- 大量练习与实践。
- 在实时实验室环境中进行实操实施。
课程定制选项
- 如需为本课程定制培训,请联系我们安排。
課程簡介
AI威胁建模简介
- AI系统为何容易受到攻击?
- AI攻击面与传统系统的对比
- 关键攻击向量:数据、模型、输出和接口层
针对AI模型的对抗攻击
- 理解对抗样本和扰动技术
- 白盒攻击与黑盒攻击
- FGSM、PGD和DeepFool方法
- 可视化和制作对抗样本
模型反演与隐私泄露
- 从模型输出推断训练数据
- 成员推断攻击
- 分类和生成模型中的隐私风险
数据投毒与后门注入
- 投毒数据如何影响模型行为
- 基于触发的后门和木马攻击
- 检测与净化策略
鲁棒性与防御技术
- 对抗训练与数据增强
- 梯度掩码与输入预处理
- 模型平滑与正则化技术
隐私保护AI防御
- 差分隐私简介
- 噪声注入与隐私预算
- 联邦学习与安全聚合
AI Security实践
- 威胁感知的模型评估与部署
- 在应用场景中使用ART(对抗鲁棒性工具箱)
- 行业案例研究:真实世界的数据泄露与缓解措施
总结与下一步
最低要求
- 了解機器學習工作流程和模型訓練
- 具備Python和常見ML框架(如PyTorch或TensorFlow)的經驗
- 熟悉基本安全或威脅建模概念會有所幫助
目標受眾
- 機器學習工程師
- 網絡安全分析師
- AI研究人員和模型驗證團隊
需要幫助選擇合適的課程嗎?
Securing AI Models: Threats, Attacks, and Defenses 培訓 - 詢問
Securing AI Models: Threats, Attacks, and Defenses - 咨詢詢問
咨詢詢問
相關課程
AI Go治理、合規與企業領導者安全
14 時間:此由讲师指导的线下或线上培训,面向中级企业领导者,旨在帮助他们理解如何负责任地治理和保护AI系统,并遵守新兴的全球框架,如欧盟AI法案、GDPR、ISO/IEC 42001和美国AI行政命令。
通过本培训,参与者将能够:
- 了解跨部门使用AI的法律、道德和监管风险。
- 解读并应用主要的AI治理框架(欧盟AI法案、NIST AI RMF、ISO/IEC 42001)。
- 为企业中的AI部署建立安全、审计和监督政策。
- 制定第三方和内部AI系统的采购和使用指南。
AI Risk Management 與公共部門的安全
7 時間:Artificial Intelligence (AI) 为政府机构和部门引入了新的运营风险维度、治理挑战和网络安全暴露。
本课程为讲师主导的培训(线上或线下),面向公共部门的IT和风险专业人士,他们此前对AI经验有限,但希望了解如何在政府或监管环境中评估、监控和保护AI系统。
在本培训结束时,参与者将能够:
- 解释与AI系统相关的关键风险概念,包括偏见、不可预测性和模型漂移。
- 应用AI特定的治理和审计框架,如NIST AI RMF和ISO/IEC 42001。
- 识别针对AI模型和数据管道的网络安全威胁。
- 建立跨部门的风险管理计划和政策对齐,以支持AI部署。
课程形式
- 互动讲座和公共部门用例讨论。
- AI治理框架练习和政策映射。
- 基于场景的威胁建模和风险评估。
课程定制选项
- 如需为本课程定制培训,请联系我们安排。
AI Trust, Risk, and Security Management (AI TRiSM) 介紹
21 時間:這是一個由講師指導的澳門(線上或線下)培訓課程,旨在幫助初級到中級IT專業人員理解並在他們的組織中實施AI TRiSM。
在培訓結束時,參與者將能夠:
- 掌握AI信任、風險和安全管理(AI TRiSM)的關鍵概念及其重要性。
- 識別並減輕與AI系統相關的風險。
- 實施AI的安全最佳實踐。
- 理解AI的監管合規性和倫理考量。
- 制定有效的AI治理和管理策略。
構建安全且負責任的LLM應用
14 時間:本次由講師指導的線下或線上培訓,面向中級到高級的AI開發者、架構師和產品經理,旨在幫助他們識別和緩解與LLM驅動的應用程序相關的風險,包括提示注入、數據泄露和未經過濾的輸出,同時融入輸入驗證、人在迴路監督和輸出防護等安全控制措施。
培訓結束後,參與者將能夠:
- 理解基於LLM系統的核心漏洞。
- 將安全設計原則應用於LLM應用架構。
- 使用諸如Guardrails AI和LangChain等工具進行驗證、過濾和安全防護。
- 將沙盒測試、紅隊演練和人在迴路審查等技術集成到生產級流程中。
AI 系統中的網路安全
14 時間:這是由講師指導的澳門(線上或線下)培訓,旨在為中級AI和網絡安全專業人士提供理解並解決AI模型和系統特有安全漏洞的能力,特別是在金融、數據治理和諮詢等高度監管行業中。
通過本培訓,參與者將能夠:
- 了解針對AI系統的對抗攻擊類型及其防禦方法。
- 實施模型硬化技術以保護機器學習管道。
- 確保機器學習模型中的數據安全性和完整性。
- 應對與AI安全相關的監管合規要求。
AI安全與風險管理導論
14 時間:本次由講師主導的培訓在澳門(線上或線下)面向初級的IT安全、風險和合規專業人員,旨在幫助他們理解AI安全的基礎概念、威脅向量以及全球框架,如NIST AI RMF和ISO/IEC 42001。
培訓結束後,參與者將能夠:
- 理解AI系統引入的獨特安全風險。
- 識別威脅向量,如對抗性攻擊、數據中毒和模型反演。
- 應用基礎治理模型,如NIST AI風險管理框架。
- 將AI使用與新興標準、合規指南和倫理原則對齊。
隱私保護機器學習
14 時間:本課程由講師主導,提供澳門的線上或線下培訓,面向希望在實際機器學習管道中實施和評估聯邦學習、安全多方計算、同態加密和差分隱私等技術的專業人士。
通過本培訓,學員將能夠:
- 理解並比較ML中的關鍵隱私保護技術。
- 使用開源框架實施聯邦學習系統。
- 應用差分隱私進行安全的數據共享和模型訓練。
- 使用加密和安全計算技術保護模型輸入和輸出。
Red Teaming AI Systems: Offensive Security for ML Models
14 時間:本次由讲师指导的澳門(线上或线下)培训,旨在为高级安全专业人员和机器学习专家提供模拟攻击AI系统、发现漏洞并增强已部署AI模型鲁棒性的能力。
培训结束后,参与者将能够:
- 模拟现实世界中对机器学习模型的威胁。
- 生成对抗样本来测试模型的鲁棒性。
- 评估AI API和管道的攻击面。
- 为AI部署环境设计红队策略。
保護邊緣AI與嵌入式智能
14 時間:本次由講師主導的培訓在澳門(線上或線下)面向中級工程師和安全專業人員,旨在幫助他們保護部署在邊緣的AI模型,抵禦篡改、數據泄露、對抗性輸入和物理攻擊等威脅。
通過本培訓,參與者將能夠:
- 識別和評估邊緣AI部署中的安全風險。
- 應用防篡改和加密推理技術。
- 加固邊緣部署的模型並保護數據管道。
- 實施針對嵌入式與受限系統的威脅緩解策略。
TinyML應用中的安全與隱私
21 時間:TinyML是一種在低功耗、資源受限的邊緣網絡設備上部署機器學習模型的方法。
本課程爲講師指導的培訓(線上或線下),面向希望保護TinyML管道並在邊緣AI應用中實施隱私保護技術的高級專業人員。
課程結束後,學員將能夠:
- 識別設備端TinyML推理中特有的安全風險。
- 爲邊緣AI部署實施隱私保護機制。
- 強化TinyML模型和嵌入式系統,抵禦對抗性威脅。
- 在受限環境中應用安全數據處理的最佳實踐。
課程形式
- 專家主導的討論支持的互動講座。
- 強調真實威脅場景的實踐練習。
- 使用嵌入式安全和TinyML工具進行動手實踐。
課程定製選項
- 組織可以請求定製版本的培訓,以滿足其特定的安全和合規需求。
安全與可信的Agentic AI:治理、身份管理與紅隊測試
21 時間:本課程涵蓋Agentic AI系統的治理、身份管理和對抗性測試,重點關注企業安全部署模式和實踐紅隊技術。
本次講師指導的培訓(線上或線下)面向希望在生產環境中設計、保護和評估基於代理的AI系統的高級從業者。
通過本培訓,學員將能夠:
- 定義安全Agentic AI部署的治理模型與策略。
- 設計非人類身份驗證流程,爲代理提供最小權限訪問。
- 實施針對自主代理的訪問控制、審計跟蹤和可觀測性。
- 策劃並執行紅隊演練,發現濫用、升級路徑和數據泄露風險。
- 通過策略、工程控制和監控緩解Agentic系統的常見威脅。
課程形式
- 互動講座與威脅建模工作坊。
- 實踐實驗室:身份配置、策略執行和對手模擬。
- 紅隊/藍隊演練及課程結束評估。
課程定製選項
- 如需定製本課程,請聯繫我們安排。