課程簡介

混合AI部署基礎

  • 理解混合、雲和邊緣部署模型。
  • AI工作負載特性與基礎設施限制。
  • 選擇正確的部署拓撲結構。

使用Docker容器化AI工作負載

  • 構建GPU和CPU推理容器。
  • 管理安全的鏡像和註冊表。
  • 爲AI實現可復現的環境。

將AI服務部署到雲環境

  • 通過Docker在AWS、Azure和GCP上運行推理。
  • 爲模型服務配置雲計算資源。
  • 保護基於雲的AI端點。

邊緣和本地部署技術

  • 在物聯網設備、網關和微型服務器上運行AI。
  • 適用於邊緣環境的輕量級運行時。
  • 管理間歇性連接和本地持久性。

混合網絡與安全連接

  • 在邊緣和雲之間建立安全隧道。
  • 證書、密鑰和基於令牌的訪問。
  • 低延遲推理的性能調優。

編排分佈式AI部署

  • 使用K3s、K8s或輕量級編排工具進行混合設置。
  • 服務發現與工作負載調度。
  • 自動化多地點部署策略。

跨環境的監控與可觀察性

  • 跟蹤跨地點的推理性能。
  • 混合AI系統的集中日誌記錄。
  • 故障檢測與自動恢復。

擴展與優化混合AI系統

  • 擴展邊緣集羣和雲節點。
  • 優化帶寬使用與緩存。
  • 平衡雲與邊緣之間的計算負載。

總結與下一步

最低要求

  • 瞭解容器化概念。
  • 具備Linux命令行操作經驗。
  • 熟悉AI模型部署工作流。

受衆

  • 基礎設施架構師。
  • 站點可靠性工程師(SREs)。
  • 邊緣和物聯網開發者。
 21 時間:

客戶評論 (5)

課程分類