AI系統中的網絡安全培訓
保護AI系統面臨與傳統網絡安全方法不同的獨特挑戰。AI系統容易受到對抗性攻擊、數據投毒和模型竊取的威脅,這些都會嚴重影響業務運營和數據完整性。本課程探討了AI系統的關鍵網絡安全實踐,涵蓋對抗性機器學習、機器學習管道中的數據安全,以及穩健AI部署的合規要求。
本課程由講師指導,提供線上或線下培訓,面向中級AI和網絡安全專業人士,旨在幫助他們理解並解決AI模型和系統特有的安全漏洞,特別是在金融、數據治理和諮詢等高度監管的行業中。
培訓結束後,參與者將能夠:
- 理解針對AI系統的對抗性攻擊類型及其防禦方法。
- 實施模型加固技術,確保機器學習管道的安全。
- 確保機器學習模型中的數據安全和完整性。
- 掌握與AI安全相關的法規合規要求。
課程形式
- 互動式講座與討論。
- 大量練習與實踐。
- 在即時實驗室環境中進行動手操作。
課程定製選項
- 如需爲本課程定製培訓,請聯繫我們進行安排。
課程簡介
AI安全挑戰簡介
- 理解AI系統特有的安全風險
- 傳統網絡安全與AI網絡安全的比較
- AI模型中的攻擊面概述
對抗性機器學習
- 對抗性攻擊類型:規避、投毒和提取
- 實施對抗性防禦和應對措施
- 不同行業中對抗性攻擊的案例研究
模型加固技術
- 模型魯棒性和加固簡介
- 減少模型對攻擊的脆弱性的技術
- 動手操作防禦性蒸餾及其他加固方法
機器學習中的數據安全
- 確保訓練和推理數據管道的安全
- 防止數據泄露和模型反演攻擊
- 管理AI系統中敏感數據的最佳實踐
AI安全合規與法規要求
- 理解與AI和數據安全相關的法規
- 遵守GDPR、CCPA及其他數據保護法律
- 開發安全且合規的AI模型
AI系統安全的監控與維護
- 爲AI系統實施持續監控
- 機器學習中的日誌記錄與審計
- 應對AI安全事件和漏洞
AI網絡安全的未來趨勢
- 保護AI和機器學習的新興技術
- AI網絡安全中的創新機會
- 爲未來AI安全挑戰做好準備
總結與下一步
最低要求
- 具備機器學習和AI概念的基礎知識
- 熟悉網絡安全原則和實踐
目標受衆
- 希望提升AI系統安全性的AI和機器學習工程師
- 專注於AI模型保護的網絡安全專業人士
- 數據治理和安全領域的合規與風險管理專業人士
需要幫助選擇合適的課程嗎?
AI系統中的網絡安全培訓 - 詢問
AI系統中的網絡安全 - 咨詢詢問
客戶評論 (1)
他的專業知識以及他在我們面前展示的方式
Miroslav Nachev - PUBLIC COURSE
課程 - Cybersecurity in AI Systems
機器翻譯
相關課程
ISACA高級人工智能安全管理(AAISM)
21 小時AAISM是一個高級框架,用於評估、治理和管理人工智能系統中的安全風險。
本課程爲講師指導的培訓(線上或線下),面向希望在企業AI環境中實施有效安全控制和治理實踐的高級專業人士。
課程結束後,參與者將能夠:
- 使用行業認可的方法評估AI安全風險。
- 實施負責任AI部署的治理模型。
- 將AI安全政策與組織目標和監管期望保持一致。
- 增強AI驅動操作中的彈性和問責制。
課程形式
- 專家分析支持的引導式講座。
- 實踐工作坊和基於評估的活動。
- 使用真實世界AI治理場景的應用練習。
課程定製選項
- 如需根據組織的AI戰略定製培訓,請聯繫我們進行課程定製。
企業領導者的AI治理、合規與安全
14 小時本課程由講師主導,提供線上或線下培訓,面向中級企業領導者,旨在幫助他們瞭解如何負責任地治理和保障AI系統,並遵守新興的全球框架,如歐盟AI法案、GDPR、ISO/IEC 42001和美國AI行政命令。
通過本培訓,參與者將能夠:
- 瞭解跨部門使用AI的法律、倫理和監管風險。
- 解讀並應用主要的AI治理框架(歐盟AI法案、NIST AI RMF、ISO/IEC 42001)。
- 爲企業中的AI部署建立安全、審計和監督政策。
- 制定第三方和內部AI系統的採購與使用指南。
公共部門的人工智能風險管理與安全
7 小時人工智能(AI)爲政府機構和部門引入了新的運營風險、治理挑戰和網絡安全問題。
本課程由講師主導,提供線上或線下培訓,面向公共部門的IT和風險專業人員,這些人員對AI經驗有限,但希望瞭解如何在政府或監管背景下評估、監控和保護AI系統。
培訓結束後,學員將能夠:
- 解釋與AI系統相關的關鍵風險概念,包括偏見、不可預測性和模型漂移。
- 應用AI特定的治理和審計框架,如NIST AI RMF和ISO/IEC 42001。
- 識別針對AI模型和數據管道的網絡安全威脅。
- 爲AI部署建立跨部門的風險管理計劃和政策一致性。
課程形式
- 互動講座和討論公共部門的使用案例。
- AI治理框架練習和政策映射。
- 基於場景的威脅建模和風險評估。
課程定製選項
- 如需定製本課程,請聯繫我們進行安排。
AI信任、風險與安全管理(AI TRiSM)簡介
21 小時本課程爲講師指導的澳門(線上或線下)培訓,面向希望瞭解並在其組織中實施AI TRiSM的初級到中級IT專業人員。
培訓結束後,學員將能夠:
- 掌握AI信任、風險與安全管理的關鍵概念和重要性。
- 識別並緩解與AI系統相關的風險。
- 實施AI安全的最佳實踐。
- 瞭解AI的法規合規性和倫理考量。
- 制定有效的AI治理和管理策略。
構建安全且負責任的LLM應用
14 小時本次由講師指導的線下或線上培訓,面向中級到高級的AI開發者、架構師和產品經理,旨在幫助他們識別和緩解與LLM驅動的應用程序相關的風險,包括提示注入、數據泄露和未經過濾的輸出,同時融入輸入驗證、人在迴路監督和輸出防護等安全控制措施。
培訓結束後,參與者將能夠:
- 理解基於LLM系統的核心漏洞。
- 將安全設計原則應用於LLM應用架構。
- 使用諸如Guardrails AI和LangChain等工具進行驗證、過濾和安全防護。
- 將沙盒測試、紅隊演練和人在迴路審查等技術集成到生產級流程中。
EXO Security and Governance: Offline Model Management
14 小時This instructor-led, live training in 澳門 (online or onsite) is aimed at security engineers and compliance officers who wish to harden EXO deployments, control model access, and govern AI workloads running entirely on-premise.
AI安全與風險管理導論
14 小時本次由講師主導的培訓在澳門(線上或線下)面向初級的IT安全、風險和合規專業人員,旨在幫助他們理解AI安全的基礎概念、威脅向量以及全球框架,如NIST AI RMF和ISO/IEC 42001。
培訓結束後,參與者將能夠:
- 理解AI系統引入的獨特安全風險。
- 識別威脅向量,如對抗性攻擊、數據中毒和模型反演。
- 應用基礎治理模型,如NIST AI風險管理框架。
- 將AI使用與新興標準、合規指南和倫理原則對齊。
隱私保護機器學習
14 小時本課程由講師主導,提供澳門的線上或線下培訓,面向希望在實際機器學習管道中實施和評估聯邦學習、安全多方計算、同態加密和差分隱私等技術的專業人士。
通過本培訓,學員將能夠:
- 理解並比較ML中的關鍵隱私保護技術。
- 使用開源框架實施聯邦學習系統。
- 應用差分隱私進行安全的數據共享和模型訓練。
- 使用加密和安全計算技術保護模型輸入和輸出。
紅隊AI系統:針對機器學習模型的進攻性安全
14 小時本課程爲講師主導的線下或線上培訓,面向高級安全專業人員和ML專家,旨在模擬對AI系統的攻擊,發現漏洞,並增強已部署AI模型的魯棒性。
在本培訓結束時,參與者將能夠:
- 模擬對機器學習模型的真實威脅。
- 生成對抗性樣本來測試模型的魯棒性。
- 評估AI API和管道的攻擊面。
- 設計針對AI部署環境的紅隊策略。
保護邊緣AI與嵌入式智能
14 小時本次由講師主導的培訓在澳門(線上或線下)面向中級工程師和安全專業人員,旨在幫助他們保護部署在邊緣的AI模型,抵禦篡改、數據泄露、對抗性輸入和物理攻擊等威脅。
通過本培訓,參與者將能夠:
- 識別和評估邊緣AI部署中的安全風險。
- 應用防篡改和加密推理技術。
- 加固邊緣部署的模型並保護數據管道。
- 實施針對嵌入式與受限系統的威脅緩解策略。
保護AI模型:威脅、攻擊與防禦
14 小時本課程爲講師指導的培訓(澳門線上或線下),面向中級機器學習與網絡安全專業人士,旨在幫助他們理解並緩解針對AI模型的新興威脅,使用概念框架和實際防禦手段,如魯棒訓練和差分隱私。
培訓結束後,學員將能夠:
- 識別並分類AI特定威脅,如對抗性攻擊、逆向攻擊和投毒。
- 使用Adversarial Robustness Toolbox(ART)等工具模擬攻擊並測試模型。
- 應用實際防禦手段,包括對抗性訓練、噪聲注入和隱私保護技術。
- 在生產環境中設計威脅感知的模型評估策略。
TinyML應用中的安全與隱私
21 小時TinyML是一種在低功耗、資源受限的邊緣網絡設備上部署機器學習模型的方法。
本課程爲講師指導的培訓(線上或線下),面向希望保護TinyML管道並在邊緣AI應用中實施隱私保護技術的高級專業人員。
課程結束後,學員將能夠:
- 識別設備端TinyML推理中特有的安全風險。
- 爲邊緣AI部署實施隱私保護機制。
- 強化TinyML模型和嵌入式系統,抵禦對抗性威脅。
- 在受限環境中應用安全數據處理的最佳實踐。
課程形式
- 專家主導的討論支持的互動講座。
- 強調真實威脅場景的實踐練習。
- 使用嵌入式安全和TinyML工具進行動手實踐。
課程定製選項
- 組織可以請求定製版本的培訓,以滿足其特定的安全和合規需求。
安全與可信的Agentic AI:治理、身份管理與紅隊測試
21 小時本課程涵蓋Agentic AI系統的治理、身份管理和對抗性測試,重點關注企業安全部署模式和實踐紅隊技術。
本次講師指導的培訓(線上或線下)面向希望在生產環境中設計、保護和評估基於代理的AI系統的高級從業者。
通過本培訓,學員將能夠:
- 定義安全Agentic AI部署的治理模型與策略。
- 設計非人類身份驗證流程,爲代理提供最小權限訪問。
- 實施針對自主代理的訪問控制、審計跟蹤和可觀測性。
- 策劃並執行紅隊演練,發現濫用、升級路徑和數據泄露風險。
- 通過策略、工程控制和監控緩解Agentic系統的常見威脅。
課程形式
- 互動講座與威脅建模工作坊。
- 實踐實驗室:身份配置、策略執行和對手模擬。
- 紅隊/藍隊演練及課程結束評估。
課程定製選項
- 如需定製本課程,請聯繫我們安排。