CAVEDU 為 NVIDIA 認證之教育合作夥伴

NVIDIA 教育合作夥伴

深度學習機構(DLI)是 NVIDIA 的線上學習平台,提供自主學習課程講師實作坊企業解決方案。學習者可藉由參與課程來累積加速運算、深度學習、資料科學與繪圖模擬等專業知識與實務經驗。其中講師實作坊須由 NVIDIA 認證講師執行,學員完課 * 之後可取得 NVIDIA 原廠完課證明 (Certificate of Competency), 點亮您的專業履歷!

很高興在此宣布,CAVEDU * 已成為 NVIDIA 教育合作夥伴 (SDP-ES),可提供以 DLI 課程為主的多項教育訓練服務。CAVEDU 為國內目前可執行 DLI 講師實作坊課程數量最多、種類最豐富的 NVIDIA 教育合作夥伴,歡迎參加我們所舉辦的 DLI 課程:

  • service@cavedu.com
  • (02) 23062900
DLI 講師實作坊完課證明樣張

 

 


CAVEDU 可執行的 DLI 實作課程 (instructor-led workshop)

[深度學習] Fundamentals of Deep Learning [深度學習理論基礎與實踐]

 

課程簡介:

以電腦視覺神經網路開始,從頭訓練模型並運用資料增強與卷積、遞歸神經網路、遷移學習等技術提升準確度。另外也會介紹自然語言處理與最熱門的 transformer 框架。

 

學習目標:

  • 瞭解訓練深度學習模型所需的基本技術和工具
  • 熟悉通用的深度學習資料類型和模型架構
  • 透過資料增強來強化資料集以提升模型精準度
  • 運用模型之間的遷移學習,以更少的資料和運算達成高效率的成果
  • 使用現代的深度學習框架,更具信心地打造自己的專案
[Gen AI / LLM] Building Transformer-Based Natural Language Processing Applications [建造以 Transformer 為基礎的自然語言處理應用]

 

課程簡介:

帶領學員建置文字分類、命名實體識別與問答系統等 NLP 模型,並深入探討 Transformer 架構(如 BERT)及其自注意力機制如何演進文字內嵌與模型效能。課程內容包括使用預訓練 Transformer進行分類與 NER 任務,並比較不同模型優缺點以判斷最適使用場景。

 

學習目標:

  • 瞭解文字內嵌如何在自然語言處理工作中迅速進化,例如 Word2Vec、遞歸神經網路(RNN)型內嵌及 Transformer
  • 瞭解 Transformer 架構功能(尤其是自我注意力機制)是如何用於建立語言模型,而無需遞歸神經網路
  • 使用自我監督技術提升 BERT、Megatron 和其他變體中的 Transformer 架構,以達到優異的自然語言處理成果
  • 利用預先訓練的現代自然語言處理模型處理多項工作,例如文字分類、命名實體識別和問答系統
  • 管理推論挑戰,並部署即時應用程式的微調模型
[Gen AI / LLM] Building LLM Applications With Prompt Engineering [開發基於提示工程的 LLM 應用]

 

課程簡介:

最快掌握並應用 LLM 的方式,就是學會現代的提示工程技巧。這些技巧同時也是進階技術如檢索增強生成(RAG)與參數高效微調(PEFT)的基礎。本課程中,學員將使用由開源 Llama 3.1 模型驅動的 NVIDIA 語言模型 NIM,並搭配熱門的 LangChain 函式庫進行應用開發,建立運用提示詞工程打造 LLM 應用的核心技能。

 

學習目標:

  • 理解並實作循環式提示詞工程的最佳實踐,建構適用於多種語言任務的 LLM 應用。
  • 熟練使用 LangChain 組織與編排 LLM 工作流程。
  • 撰寫應用程式碼,實現文字生成、文件分析、聊天機器人等多樣化任務。

 

[Gen AI / LLM] Efficient Large Language Model (LLM) Customization [高效率的 LLM 客製化]

 

課程簡介:

企業在日常營運中經常需要處理文字分類、內容生成、情感分析與客服聊天等語言相關任務,並希望以最具成本效益的方式完成。大型語言模型(LLM)可自動化這些任務,而「參數高效微調(PEFT)」等技術則可進一步提升模型能力,同時降低模型在實際應用中所需的大小與運算成本。本課程將帶領你超越單純的提示詞工程,學習如何在不重新訓練模型或修改內部權重的情況下,靈活調整預訓練 LLM,以滿足特定任務需求。你將運用 NVIDIA NeMo™ 服務實作多種高效微調方法,打造符合企業場景的 LLM 應用。

 

學習目標:

  • 使用少量資料應用參數高效微調(PEFT)技術,達成自訂語言任務。
  • 利用 LLM 產生合成資料,以協助訓練更小型的模型完成指定任務。
  • 結合合成資料生成與模型調整,建立反覆優化流程,降低模型所需資源。
  • 實作由多個自訂模型組成的生成式應用,並在課程中完成資料生成與應用開發流程。

 

[Gen AI / LLM] Rapid Application Development with Large Language Models [使用 LLM 進行快速應用開發]

 

課程簡介:

隨著大型語言模型技術的快速進步與普及,企業得以以前所未有的方式改善營運流程、降低成本並提升大規模生產力。同時,LLM 驅動的應用也能帶來創新的服務體驗,例如導入 AI 虛擬助理進行客服支援,或透過情感分析深入挖掘顧客回饋資訊。本課程將協助你掌握 LLM 應用開發的核心知識與實作技巧,並引導你善用開源生態系統(如 HuggingFace 與 Transformers API),快速上手打造 LLM 應用。

 

學習目標

  • 探索與實作 HuggingFace 模型庫與 Transformers API,快速導入預訓練 LLM。
  • 使用編碼器模型進行語意分析、嵌入生成、問答系統與零樣本分類任務。
  • 使用解碼器模型進行自然語言生成,包括程式碼、自由回答與對話應用。
  • 掌握狀態管理與組合技巧,建立具安全性、準確性與邏輯性的 LLM 對話流程。
[Edge Computing / Robotics] Getting Started with AI on Jetson Nano [透過 Jetson Nano 開發人工智慧應用]

 

課程簡介:

NVIDIA Jetson 是目前最熱門的邊緣運算平台之一,maker、自學開發者與嵌入式科技愛好者可運用這類裝置來製作各種實體 AI 專案。這台易於上手卻強大的電腦,可同時運行多個神經網路,應用於影像分類、物體偵測、語意分割與語音處理等任務。本課程中將使用 Jupyter iPython Notebook,在自己的 Jetson 裝置實作一個基於電腦視覺的深度學習分類專案。

 

學習目標

  • 設定 NVIDIA Jetson Nano 及相機模組
  • 收集影像資料以訓練分類模型
  • 為迴歸模型標註影像資料
  • 在自有資料上訓練神經網路並建立自製模型
  • 在 Jetson Nano 上使用訓練好的模型進行推論

 

 

 


NVIDIA 認證專業講師群

曾吉弘 (阿吉老師):從 2022 年開始取得 NVIDIA 認證講師資格,至今每年榮登 NVIDIA DLI AI 白金級大使。

徐豐智。2025 年取得NVIDIA 認證講師資格。

* 翰尼斯企業有限公司(29070497)為正式註冊之法人,CAVEDU為其教育部門,RobotKingdom則為其零售部門。

** 須完成該課程所指定之課程評量,難度根據各課程而有不同。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *