課程簡介

Ollama簡介

  • 什麼是Ollama,它是如何工作的?
  • 本地運行AI模型的好處。
  • 支持的LLMs概述(Llama、DeepSeek、Mistral等)。

安裝與設置Ollama

  • 系統要求和硬件考慮。
  • 在不同操作系統上安裝Ollama。
  • 配置依賴項和環境設置。

本地運行AI模型

  • 在Ollama中下載和加載AI模型。
  • 通過命令行與模型交互。
  • 本地AI任務的基本提示工程。

優化性能與資源使用

  • 管理硬件資源以實現高效的AI執行。
  • 減少延遲並提高模型響應時間。
  • 爲不同模型進行性能基準測試。

本地AI部署的應用案例

  • AI驅動的聊天機器人和虛擬助手。
  • 數據處理和自動化任務。
  • 注重隱私的AI應用。

總結與下一步

最低要求

  • 對AI和機器學習概念有基本瞭解。
  • 熟悉命令行界面。

受衆

  • 希望在無雲依賴的情況下運行AI模型的開發者。
  • 對AI隱私和成本效益部署感興趣的商業專業人士。
  • 探索本地模型部署的AI愛好者。
 7 時間:

課程分類