NVIDIA DLI 講師實作坊 [使用提示工程技術打造大型語言模型應用]

課程介紹

隨著大型語言模型(LLM)展現出卓越的能力,企業積極將其整合至產品與內部應用中,以滿足各種使用場景,包括(但不限於)文字生成、大規模文件分析及聊天機器人助手。

運用現代提示工程(Prompt Engineering)技術是最快速的方法來利用 LLM 處理多樣化任務。這些技術也是更高級的 LLM 方法(如檢索增強生成 Retrieval-Augmented Generation,RAG)與參數高效微調(Parameter-Efficient Fine-Tuning,PEFT)的基礎。

在本工作坊中,學員將使用 NVIDIA NIM 評台搭配 Llama-3.1 大型語言模型,並結合熱門的 LangChain 函式庫來打造各種 LLM 應用。您將可實際體驗提示工程確實可有效提升  LLM 的生成品質。

本課程原文名稱為 [Building LLM Applications With Prompt Engineering],NVIDIA DLI 目前未提供正體中文版本,相關資訊皆以原廠為準。

完成課程評量之後即可取得完課證明。

課程定位

  • 程度:技術 – 中級 (本課程屬於 NVIDIA DLI / LLM grouping Level 1 )
  • 主題:深度學習 / 生成式AI / 大語言模型
  • 完課證明:有
  • 考試方式:程式實作
  • 課程先修條件:熟悉 Python 語法,對於 LLM 關鍵技術有扎實理解
  • 所需軟體:Python3 / NVIDIA NIM / LangChain
  • 所需硬體:可連上網際網路的筆記型電腦,用於連入 DLI 雲端虛擬機執行課程,筆記型電腦無須另外安裝程式
  • 相關資訊:請參考 DLI Generative AI / LLM 學習路徑
  • 課程定位:本課程位於 DLI 學習路徑Generative AI / LLM分類,如下圖,也歡迎從中找到更多您喜歡的課程:

學習目標

完成本課程後,您將能夠:

  • 理解如何應用迭代式提示工程的最佳實踐,以開發各種語言相關任務的 LLM 應用程式。
  • 熟練使用 LangChain 來組織和建構LLM工作流程。
  • 開發應用程式,得以妥善運用 LLM 進行生成任務、文件分析、聊天機器人應用等。

課程特色

1. 全面涵蓋 LLM 開發與應用

本課程從 Transformer 基礎概念開始,逐步進入大型語言模型(LLM)應用開發,最終涵蓋智能代理與模型編排,提供完整的學習路徑。

2. 實作導向的學習體驗 

透過 Hugging Face 模型庫、Transformers API 及 LangChain,學員將實際操作 LLM 來進行文字生成、問答系統、分類及多模態應用開發。

3. 企業應用場景驅動 

課程探討 LLM 在企業環境中的應用,如 AI 客服助手、情感分析、機器翻譯及可擴展的文本生成,幫助企業提升運營效率與服務品質。

4 涵蓋最新技術與工具 

學習檢索增強生成(RAG)、Parameter-Efficient Fine-Tuning(PEFT)、多模態模型(CLIP、Diffusion)、LangChain 及 LangGraph,掌握最新的 LLM 技術趨勢。

5. 課程認證與實作評量 

透過最終評估,學員需整合文字生成、多模態學習與智能代理技術開發 LLM 應用,完成課程後將獲得結業證書,驗證所學技能。

課表 

第一天

時間 內容
10:00 – 10:30 簡介NVIDIA DLI深度學習機構與主流AI工具

註冊NVIDIA開發者帳號

介紹 NVIDIA NIM,用於部署本課程中使用的 Llama 3.1 LLM。

10:30 – 12:00 認識提示設計 

– 理解提示工程與LLM之間的緊密關係。

– 使用 OpenAI API 和 LangChain 建立提示並檢視其回應結果。

– 學習如何串流 LLM 回應,並以批次方式發送提示,比較不同的效能表現。

– 練習迭代式提示開發(Iterative Prompt Development)過程。

– 建立並使用第一個提示模板(Prompt Templates)。

– 進行一個迷你專案,對一批輸入執行分析與生成任務的組合操作。

12:00 – 13:00 午餐時間
13:00 – 14:40 LangChain 表達式語言(LCEL)、Runnables 與 Chains 

– 學習 LangChain Runnables,以及如何使用 LangChain Expression Language(LCEL) 來組合這些運行單元(Runnables)形成鏈(Chains)。

– 撰寫自訂函式,並將其轉換為 Runnables,以納入 LangChain Chains 中。

– 將多個 LCEL Chains 組合成一個更大的應用程式鏈(Application Chain)。

– 以平行(Parallel)方式執行 LCEL Chains 來提升效率。

– 進行一個迷你專案,使用 LCEL 和平行執行來對一批輸入執行分析與生成任務的組合操作。

14:40 – 15:00 休息與交流時間
15:00 – 16:50 使用訊息進行提示設計 

– 學習兩種核心的聊天訊息類型:人類訊息(Human Messages)和AI 訊息(AI Messages),並了解如何在應用程式中明確使用它們。

– 透過少樣本提示(Few-Shot Prompting)技術,為聊天模型提供指導性範例,以提高回應品質。

– 明確使用系統訊息(System Message),讓聊天模型具備特定的角色和個性設定。

– 運用思維鏈提示(Chain-of-Thought Prompting),增強 LLM 執行複雜推理任務的能力。

– 管理聊天訊息,以保留對話歷史,並實現聊天機器人的功能。

– 進行迷你專案,打造一個靈活的多角色聊天機器人應用。

16:50 – 17:00 結語、賦歸

第二天

時間 內容
10:00 – 11:00 結構化輸出 

探索使用 LLM 批次生成結構化資料的方法,以便於後續應用。

結合 Pydantic 類別與 LangChain 的 JsonOutputParser 來生成結構化輸出。

學習如何從長篇文字中提取資料,並依照需求進行標註。

完成一個迷你專案:利用結構化資料生成技術,從非結構化文字文件中進行資料擷取與文件標註。

11:00 – 12:00 擴充文字生成規模 

– 運用提示工程技術讓 LLM 生成不同長度、風格與格式的文字。 

12:00 – 13:00 午餐時間
13:00 – 15:20 工具使用與智能代理 

– 建立 LLM 外部功能(Tools),讓LLM能夠辨識並呼叫這些工具。 

– 開發智能代理(Agent),使其能夠判斷何時應該使用工具,並將工具的結果整合進 LLM 的回應。 

– 進行迷你專案,開發一個可呼叫外部 API 的 LLM 代理,使其能夠增強回應內容並提供即時資料。 

15:20 – 15:30 休息與交流時間
15:30 – 16:30 課程評量

– 完成課程評量並獲得證書。

16:00 – 17:00 結尾與後續資源:

填寫課程問卷,了解環境設置與進階學習資源。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *