ISACA高級人工智能安全管理(AAISM)培訓
AAISM是一個高級框架,用於評估、治理和管理人工智能系統中的安全風險。
本課程爲講師指導的培訓(線上或線下),面向希望在企業AI環境中實施有效安全控制和治理實踐的高級專業人士。
課程結束後,參與者將能夠:
- 使用行業認可的方法評估AI安全風險。
- 實施負責任AI部署的治理模型。
- 將AI安全政策與組織目標和監管期望保持一致。
- 增強AI驅動操作中的彈性和問責制。
課程形式
- 專家分析支持的引導式講座。
- 實踐工作坊和基於評估的活動。
- 使用真實世界AI治理場景的應用練習。
課程定製選項
- 如需根據組織的AI戰略定製培訓,請聯繫我們進行課程定製。
課程簡介
AI安全治理基礎
- AI治理的核心原則
- 企業AI安全框架
- 利益相關者的角色和職責
AI風險評估方法
- 識別和分類AI安全風險
- AI系統的威脅建模
- 影響評估和優先級排序
安全的AI系統設計
- 爲機密性、完整性和可用性設計
- 在AI管道中實施安全控制
- 模型生命週期管理考慮因素
AI數據保護與隱私
- 機器學習的數據治理
- 管理敏感和受監管數據
- 隱私增強技術
監控和保護AI操作
- AI行爲的持續評估
- 檢測漂移、異常和濫用
- AI系統的操作威脅情報
法規與合規性對齊
- 影響AI安全的全球標準
- 文檔和審計準備
- 將治理與法律義務對齊
AI系統的事件響應
- AI特定的攻擊向量和指標
- 針對受損模型的響應工作流程
- 事後審查和修復
戰略性AI安全管理
- 構建長期AI安全能力
- 將AI風險整合到企業戰略中
- 成熟度評估和持續改進
總結與下一步
最低要求
- 瞭解網絡安全風險原則
- 具備AI或數據驅動系統的經驗
- 熟悉企業安全治理
目標受衆
- 負責AI計劃的安全經理
- 治理和風險專業人士
- 負責安全AI採用的技術領導者
需要幫助選擇合適的課程嗎?
ISACA高級人工智能安全管理(AAISM)培訓 - 詢問
ISACA高級人工智能安全管理(AAISM) - 咨詢詢問
咨詢詢問
相關課程
企業領導者的AI治理、合規與安全
14 時間:本課程由講師主導,提供線上或線下培訓,面向中級企業領導者,旨在幫助他們瞭解如何負責任地治理和保障AI系統,並遵守新興的全球框架,如歐盟AI法案、GDPR、ISO/IEC 42001和美國AI行政命令。
通過本培訓,參與者將能夠:
- 瞭解跨部門使用AI的法律、倫理和監管風險。
- 解讀並應用主要的AI治理框架(歐盟AI法案、NIST AI RMF、ISO/IEC 42001)。
- 爲企業中的AI部署建立安全、審計和監督政策。
- 制定第三方和內部AI系統的採購與使用指南。
公共部門的人工智能風險管理與安全
7 時間:人工智能(AI)爲政府機構和部門引入了新的運營風險、治理挑戰和網絡安全問題。
本課程由講師主導,提供線上或線下培訓,面向公共部門的IT和風險專業人員,這些人員對AI經驗有限,但希望瞭解如何在政府或監管背景下評估、監控和保護AI系統。
培訓結束後,學員將能夠:
- 解釋與AI系統相關的關鍵風險概念,包括偏見、不可預測性和模型漂移。
- 應用AI特定的治理和審計框架,如NIST AI RMF和ISO/IEC 42001。
- 識別針對AI模型和數據管道的網絡安全威脅。
- 爲AI部署建立跨部門的風險管理計劃和政策一致性。
課程形式
- 互動講座和討論公共部門的使用案例。
- AI治理框架練習和政策映射。
- 基於場景的威脅建模和風險評估。
課程定製選項
- 如需定製本課程,請聯繫我們進行安排。
AI Trust, Risk, and Security Management (AI TRiSM) 介紹
21 時間:這是一個由講師指導的澳門(線上或線下)培訓課程,旨在幫助初級到中級IT專業人員理解並在他們的組織中實施AI TRiSM。
在培訓結束時,參與者將能夠:
- 掌握AI信任、風險和安全管理(AI TRiSM)的關鍵概念及其重要性。
- 識別並減輕與AI系統相關的風險。
- 實施AI的安全最佳實踐。
- 理解AI的監管合規性和倫理考量。
- 制定有效的AI治理和管理策略。
構建安全且負責任的LLM應用
14 時間:本次由講師指導的線下或線上培訓,面向中級到高級的AI開發者、架構師和產品經理,旨在幫助他們識別和緩解與LLM驅動的應用程序相關的風險,包括提示注入、數據泄露和未經過濾的輸出,同時融入輸入驗證、人在迴路監督和輸出防護等安全控制措施。
培訓結束後,參與者將能夠:
- 理解基於LLM系統的核心漏洞。
- 將安全設計原則應用於LLM應用架構。
- 使用諸如Guardrails AI和LangChain等工具進行驗證、過濾和安全防護。
- 將沙盒測試、紅隊演練和人在迴路審查等技術集成到生產級流程中。
AI 系統中的網路安全
14 時間:這是由講師指導的澳門(線上或線下)培訓,旨在為中級AI和網絡安全專業人士提供理解並解決AI模型和系統特有安全漏洞的能力,特別是在金融、數據治理和諮詢等高度監管行業中。
通過本培訓,參與者將能夠:
- 了解針對AI系統的對抗攻擊類型及其防禦方法。
- 實施模型硬化技術以保護機器學習管道。
- 確保機器學習模型中的數據安全性和完整性。
- 應對與AI安全相關的監管合規要求。
AI安全與風險管理導論
14 時間:本次由講師主導的培訓在澳門(線上或線下)面向初級的IT安全、風險和合規專業人員,旨在幫助他們理解AI安全的基礎概念、威脅向量以及全球框架,如NIST AI RMF和ISO/IEC 42001。
培訓結束後,參與者將能夠:
- 理解AI系統引入的獨特安全風險。
- 識別威脅向量,如對抗性攻擊、數據中毒和模型反演。
- 應用基礎治理模型,如NIST AI風險管理框架。
- 將AI使用與新興標準、合規指南和倫理原則對齊。
隱私保護機器學習
14 時間:本課程由講師主導,提供澳門的線上或線下培訓,面向希望在實際機器學習管道中實施和評估聯邦學習、安全多方計算、同態加密和差分隱私等技術的專業人士。
通過本培訓,學員將能夠:
- 理解並比較ML中的關鍵隱私保護技術。
- 使用開源框架實施聯邦學習系統。
- 應用差分隱私進行安全的數據共享和模型訓練。
- 使用加密和安全計算技術保護模型輸入和輸出。
紅隊AI系統:針對機器學習模型的進攻性安全
14 時間:本課程爲講師主導的線下或線上培訓,面向高級安全專業人員和ML專家,旨在模擬對AI系統的攻擊,發現漏洞,並增強已部署AI模型的魯棒性。
在本培訓結束時,參與者將能夠:
- 模擬對機器學習模型的真實威脅。
- 生成對抗性樣本來測試模型的魯棒性。
- 評估AI API和管道的攻擊面。
- 設計針對AI部署環境的紅隊策略。
保護邊緣AI與嵌入式智能
14 時間:本次由講師主導的培訓在澳門(線上或線下)面向中級工程師和安全專業人員,旨在幫助他們保護部署在邊緣的AI模型,抵禦篡改、數據泄露、對抗性輸入和物理攻擊等威脅。
通過本培訓,參與者將能夠:
- 識別和評估邊緣AI部署中的安全風險。
- 應用防篡改和加密推理技術。
- 加固邊緣部署的模型並保護數據管道。
- 實施針對嵌入式與受限系統的威脅緩解策略。
保護AI模型:威脅、攻擊與防禦
14 時間:本課程爲講師指導的培訓(澳門線上或線下),面向中級機器學習與網絡安全專業人士,旨在幫助他們理解並緩解針對AI模型的新興威脅,使用概念框架和實際防禦手段,如魯棒訓練和差分隱私。
培訓結束後,學員將能夠:
- 識別並分類AI特定威脅,如對抗性攻擊、逆向攻擊和投毒。
- 使用Adversarial Robustness Toolbox(ART)等工具模擬攻擊並測試模型。
- 應用實際防禦手段,包括對抗性訓練、噪聲注入和隱私保護技術。
- 在生產環境中設計威脅感知的模型評估策略。
TinyML應用中的安全與隱私
21 時間:TinyML是一種在低功耗、資源受限的邊緣網絡設備上部署機器學習模型的方法。
本課程爲講師指導的培訓(線上或線下),面向希望保護TinyML管道並在邊緣AI應用中實施隱私保護技術的高級專業人員。
課程結束後,學員將能夠:
- 識別設備端TinyML推理中特有的安全風險。
- 爲邊緣AI部署實施隱私保護機制。
- 強化TinyML模型和嵌入式系統,抵禦對抗性威脅。
- 在受限環境中應用安全數據處理的最佳實踐。
課程形式
- 專家主導的討論支持的互動講座。
- 強調真實威脅場景的實踐練習。
- 使用嵌入式安全和TinyML工具進行動手實踐。
課程定製選項
- 組織可以請求定製版本的培訓,以滿足其特定的安全和合規需求。
安全與可信的Agentic AI:治理、身份管理與紅隊測試
21 時間:本課程涵蓋Agentic AI系統的治理、身份管理和對抗性測試,重點關注企業安全部署模式和實踐紅隊技術。
本次講師指導的培訓(線上或線下)面向希望在生產環境中設計、保護和評估基於代理的AI系統的高級從業者。
通過本培訓,學員將能夠:
- 定義安全Agentic AI部署的治理模型與策略。
- 設計非人類身份驗證流程,爲代理提供最小權限訪問。
- 實施針對自主代理的訪問控制、審計跟蹤和可觀測性。
- 策劃並執行紅隊演練,發現濫用、升級路徑和數據泄露風險。
- 通過策略、工程控制和監控緩解Agentic系統的常見威脅。
課程形式
- 互動講座與威脅建模工作坊。
- 實踐實驗室:身份配置、策略執行和對手模擬。
- 紅隊/藍隊演練及課程結束評估。
課程定製選項
- 如需定製本課程,請聯繫我們安排。