Python知識分享網(wǎng) - 專業(yè)的Python學習網(wǎng)站 學Python,上Python222
大模型與Agent開發(fā)實戰(zhàn) 視頻教程 下載
匿名網(wǎng)友發(fā)布于:2025-09-10 09:14:08
(侵權舉報)
(假如點擊沒反應,多刷新兩次就OK!)

大模型與Agent開發(fā)實戰(zhàn) 視頻教程 下載 圖1

 

 

資料目錄:

 

├─1-在線大模型部署調用
│      DSPy優(yōu)化器優(yōu)化LLM程序.ts
│      DSPy:斯坦福20k+星標項目 - 革命性的LLM優(yōu)化框架,從評估到自動優(yōu)化你的LLM系統(tǒng)(如RAG系統(tǒng)).ts
│      GLM 4 工具調用從入門到精通與CogVideoX 文本生成視頻 API 全流程.ts
│      GLM Assistant API集成與FastAPI服務復刻實戰(zhàn)指南.ts
│      GLM模型:流式處理的工具調用、多模態(tài)應用及模型微調實戰(zhàn)指南.ts
│      【Claude】01_了解Claude的所有特質.MP4
│      【Claude】02_Claude的注冊流程.ts
│      【Claude】03_API_KEY領取及調用.ts
│      【Claude】04_API必須參數(shù)揭秘,多輪對話機器人速成指南_x264.ts
│      【Claude】05_API多模態(tài)的最佳實踐.ts
│      【Claude】06_API生成定制化與提示工程實戰(zhàn)長文檔.mp4
│      【Claude】07_tool use全流程講解與wiki搜索實戰(zhàn).ts
│      【Claude】08_tool_choice與定制Json輸出及tool_use大實戰(zhàn).ts
│      【Claude】09_揭秘prompt Cache提示緩存:節(jié)省成本加快響應的絕技.ts
│      【Claude】10_stream函數(shù)及生成器本質講解.ts
│      【Claude】11_stream流式概念與使用方法講解.ts
│      【Claude】12_異步的使用原因與基本語法.ts
│      【Claude】13_異步的API調用的講解與實踐.ts
│      【Gemini】01_Gemini注冊指南-最新模型免費API調用.ts
│      【Gemini】02_生態(tài)體驗攻略與微調實戰(zhàn).ts
│      【Gemini】03_解鎖 Gemini API-開啟文本生成之旅.ts
│      【Gemini】04_掌握原生generate_content函數(shù)多輪對話技巧.ts
│      【Gemini】05_API內置簡化多輪對話的start_chat函數(shù)與ChatSessi.ts
│      【Gemini】06_API精細化控制生成之System Instruction.ts
│      【Gemini】07_API精細化控制生成之generation_config與max_t.ts
│      【Gemini】08_API精細化控制生成之Temperature與Stop Sequen.ts
│      【Gemini】09_提示工程之長文檔實戰(zhàn).ts
│      【Gemini】10_API精細化控制生成結構化與Json參數(shù).ts
│      【GLMAssistantAPI】01_調用assistantAPI流程與效果.ts
│      【GLMAssistantAPI】02_多個assistant演示解析使用.ts
│      【GLMAssistantAPI】03_將智能體集成Agent類使用.ts
│      【GLMAssistantAPI】04_構建fastapi的Web項目.ts
│      【GLMAssistantAPI】05_復刻AssistantAPI.ts
│      【GLM】01_GLM大模型API調用介紹與領取APIKEY.ts
│      【GLM】02_GLM模型API初次調用與響應解析.ts
│      【GLM】03_大模型API調用的消息和構建多輪對話機器人.ts
│      【GLM】04_十分鐘速通GLM的可選參數(shù).ts
│      【GLM】05_GLM的stream流式響應講解.ts
│      【GLM】06_tooluse上-一次api調用的tooluse.ts
│      【GLM】07_tooluse下-兩次api調用的tooluse.ts
│      【GLM】08_tooluse接入維基百科搜索實戰(zhàn).ts
│      【GLM】09_CogVideoX視頻生成大模型.ts
│      【GLM】10_GLM4V圖像多模態(tài)模型.mp4
│      【GLM】11_tool_use和流式結合的API調用.mp4
│      【GLM】12_GLM的AllTool模型API調用.mp4
│      【GLM】13_構建在線GLM的微調.mp4
│      【GPT4o】01_4o文本生成API基本講解與調用.ts
│      【GPT4o】02_2個核心必需參數(shù)詳解與對話消息本質剖析.ts
│      【GPT4o】03_多輪對話歷史及面向對象多輪對話機器人實戰(zhàn).ts
│      【GPT4o】04_精細控制生成可選參數(shù)系列講解.ts
│      【GPT4o】05_4o多模態(tài)圖片的文本生成API調用詳解.ts
│      【GPT4o】06_3步的 tool use基礎講解與【實戰(zhàn)】社交媒體情緒數(shù)據(jù)分析.ts
│      【GPT4o】07_5步的 tool use完整的調用流程與匯總.ts
│      【GPT4o】08_tool use 維基百科實時寫作助手【實戰(zhàn)】.ts
│      【GPT4o】09_并行的函數(shù)調用與實時股票價格、歷史走勢繪圖與分析【實戰(zhàn)】.ts
│      【GPT4o】10_輸出生成結構化的3種方式(JSON結構化).ts
│      【GPT4o】11_首token時延與提示緩存原理與最佳實踐.ts
│      【GPT4o】12_Streaming流式響應詳解.ts
│      【GPT4o】13_函數(shù)調用中的Streaming流式響應.ts
│      【GPT4o】14_風格微調(上)創(chuàng)建數(shù)據(jù)集與微調作業(yè).ts
│      【GPT4o】15_風格微調(下)微調作業(yè)運行與應用評估.ts
│      【GPT4o】16_tool_use微調(上)微調數(shù)據(jù)準備思路和微調準備.MP4.mp4
│      【GPT4o】17_tool_use微調(下)制造微調數(shù)據(jù)微調并評估結果.MP4
│      【GPTo1】01_o1大模型原理介紹 從4o到o1實際上發(fā)生了什么.ts
│      【GPTo1】02_o1模型的API調用詳解與總結.ts
│      【GPTo1】03_通過COT制作4o-mini版本的o1模型【實戰(zhàn)】.ts
│      【GPTo1】04_2種加載模型o1沒有的Json結構功能與【實戰(zhàn)】.ts
│      【GPTo1】05_用o1蒸餾模型實戰(zhàn)(上).ts
│      【GPTo1】06_用o1蒸餾模型實戰(zhàn)(下).ts
│      【GPT】01_OPENAI的賬號注冊速通.ts
│      【GPT】02_OPEN AI官網(wǎng)及開發(fā)者平臺使用指南.ts
│      【GPT】03_虛擬信用卡開通與升級GPT_Plus會員.ts
│      【GPT】04_API賬戶充值及領取API_KEY及首次調用API.ts
│      提示工程全解指南.ts
│      
├─2-開源大模型部署調用
│      Cursor&Coder高效低代碼開發(fā)辦法.ts
│      Glm-Edge-v-5B模型介紹與本地部署.ts
│      Marco-o1模型介紹與本地部署.ts
│      Ollama最新版本保姆級指南.ts
│      Ollama最新版本啟動多模態(tài)模型Llama3.2Vision全流程[Linux環(huán)境].ts
│      Qwen2--5Coder本地部署使用全流程.ts
│      Qwen2--5Coder:32B基本介紹和測試.ts
│      Qwen2VL多模態(tài)模型參數(shù)介紹&部署使用全流程.ts
│      【ChatGLM3-6B】01_Ubuntu雙系統(tǒng)安裝.MP4
│      【ChatGLM3-6B】02_Ubuntu環(huán)境下ChatGLM3-6b命令行安裝辦法.MP4
│      【ChatGLM3-6B】03_服務器環(huán)境下部署ChatGLM3-6b.ts
│      【ChatGLM3-6B】04_ChatGLM3-6b的多種啟動方法.ts
│      【ChatGLM3-6B】05_AutoDL快速部署ChatGLM3-6b辦法.ts
│      【ChatGLM3-6B】06_Git方法簡潔下載ChatGLM3-6b.ts
│      【ChatGLM3-6B】07_以ChatGLM3-6b為例的大模型更新辦法.ts
│      【ChatGLM3-6B】08_單機多卡啟動大模型辦法.ts
│      【ChatGLM3-6B】09_LoRA原理淺析.ts
│      【ChatGLM3-6B】10_LoRA微調實戰(zhàn)訓練.ts
│      【ChatGLM3-6B】11_DeepSpeed原理淺析.ts
│      【ChatGLM3-6B】12_PEFT高效微調原理淺析.ts
│      【ChatGLM3-6B】13_P-Tuning V2微調實戰(zhàn).ts
│      【ChatGLM3-6B】14_LangChian體系詳解.ts
│      【ChatGLM3-6B】15_LangChain0.3安裝部署與調用方法.ts
│      【Cursor】在Windows環(huán)境下調用QWQ線上API實現(xiàn)輔助編程方法.ts
│      【Cursor】調用QWQ實現(xiàn)輔助編程--調用本地模型全流程.ts
│      【GLM4-9B】01_模型基本介紹.ts
│      【GLM4-9B】02_安裝部署流程展示.ts
│      【GLM4-9B】03_多種啟動方式流程展示.ts
│      【GLM4-9B】04_vLLM介紹和部署應用.ts
│      【GLM4-9B】05_WSL部署流程.ts
│      【GLM4-Voice】01_模型基本介紹.ts
│      【GLM4-Voice】02_多模態(tài)與AGI技術展望.ts
│      【GLM4-Voice】03_本地化部署流程.ts
│      【GLM4-Voice】04_線上部署流程.ts
│      【GLM4-Voice】05_開源大模型比拼-排行榜介紹.ts
│      【Llama.cpp】以Qwen2.5為例實現(xiàn)量化模型啟動與API調用.ts
│      【Llama.cpp】以Qwen2VL為例實現(xiàn)GGUF模型量化與調用辦法.ts
│      【Llama3.1】01_Llama家族系列模型生態(tài)介紹.ts
│      【Llama3.1】02_線上體驗辦法.ts
│      【Llama3.1】03_技術論文解讀.ts
│      【Llama3.1】04_官網(wǎng)以及Ollama部署流程.ts
│      【Llama3.1】05_ModelScope線上部署.ts
│      【Llama3.1】06_ModelScope本地部署.ts
│      【Llama3.1】07_LlamaFactory中文能力微調實例.ts
│      【Llama3.2】01_基本介紹與線上測試辦法.ts
│      【Llama3.2】02_官網(wǎng)下載流程.ts
│      【Llama3.2】03_Ollama在Linux和Windows部署方法.ts
│      【Qwen2.5Coder&Math】01_Coder介紹.ts
│      【Qwen2.5Coder&Math】02_Math介紹.ts
│      【Qwen2.5Coder&Math】03_Coder技術文章分析.ts
│      【Qwen2.5Coder&Math】04_Math技術文章分析.ts
│      【Qwen2.5Coder&Math】05_Math線上體驗.ts
│      【Qwen2.5Coder&Math】06_Coder本地部署推理流程.ts
│      【Qwen2.5Coder&Math】07_vLLM推理Coder流程.ts
│      【Qwen2.5Coder&Math】08_Ollama推理Coder流程.ts
│      【Qwen2.5Coder&Math】09_線上部署推理Coder流程.ts
│      【Qwen2.5Coder&Math】10_Math部署流程.ts
│      【Qwen2.5】01_基本介紹與線上體驗辦法.ts
│      【Qwen2.5】02_ModelScope本地化部署流程.ts
│      【Qwen2.5】03_ModelScope線上部署辦法.ts
│      【Qwen2.5】04_Ollama框架部署流程.ts
│      【Qwen2.5】05_在Windows系統(tǒng)中使用Ollama框架部署流程.ts
│      【Qwen2.5】06_vLLM部署與調用流程.ts
│      在Windows環(huán)境下使用Ollama啟動多模態(tài)模型llama3.2Vision全流程.ts
│      
├─3-大模型微調實戰(zhàn)
│      Ch 1.1 通用模型發(fā)展與微調前景.ts
│      Ch 1.2 微調與其他技術的區(qū)別和關聯(lián).ts
│      Ch 1.3 微調步驟及技術棧.ts
│      Ch 1.4 高效微調及范圍.ts
│      Ch 1.5 強化學習RHLF介紹.ts
│      Ch 1.6 主流微調框架.ts
│      Ch 2.1 Lora原理詳解.ts
│      Ch 2.2 LLama_factory 介紹.ts
│      Ch 2.3 LLama_factory 安裝部署及驗證.ts
│      Ch 2.4 實戰(zhàn)Qwen2.5微調.ts
│      Ch 2.5 配置TensorBoard.ts
│      Ch 3.1 如何獲取數(shù)據(jù)源及使用解析.ts
│      Ch 3.2 llamafactory中如何使用和注冊數(shù)據(jù)集.ts
│      Ch 3.3 模型微調及參數(shù)詳解.ts
│      Ch 3.4 數(shù)據(jù)驗證&deepspeed微調.ts
│      Ch 4.1 win&Qlora&qwen2.5_Qlora能節(jié)約多少內存.ts
│      Ch 4.2 Qlora核心概念.ts
│      Ch 4.3如何在windows配置環(huán)境.ts
│      Ch 4.4 Qlor微調實戰(zhàn)與驗證.ts
│      Ch 5.1PPO&llama3.2_什么是PPO算法.ts
│      Ch 5.2 如何理解PPO.ts
│      Ch 5.3 各個模型PPO算法的協(xié)作關系.ts
│      Ch 5.4 PPO模型與數(shù)據(jù)的選擇.ts
│      Ch 5.5 PPO微調實操.ts
│      Ch 5.6 PPO源碼解讀.ts
│      Ch 6.1 RLHF&Qwen2.5,RLHF背景與意義.ts
│      Ch 6.2 RLHF流程拆解與核心.ts
│      Ch 6.3 獎勵模型原理.ts
│      Ch 6.4 獎勵模型訓練流程.ts
│      Ch 6.5 RLHF全流程微調.ts
│      Ch 6.6 RLHF挑戰(zhàn)與改進方向.ts
│      DPO微調Qwen2.5.ts
│      LLama_factory&Lora微調Qwen2.5做NL2sql.ts
│      LLama_Factory+LORA大模型微調.ts
│      PPO微調Llama-3.2.ts
│      window系統(tǒng)微調QLORA.ts
│      
├─4-大模型Agent開發(fā)實戰(zhàn)
│      Ch 1.1 大模型應用發(fā)展與Agent前沿技術趨勢.ts
│      Ch 1.2 大模型應用的本地知識庫問答核心技術-RAG.ts
│      Ch 1.3 AI Agent爆發(fā)的根本原因.ts
│      Ch 1.4 AI Agent 經(jīng)典核心架構與 AgentExcuter.ts
│      Ch 10.1 LangGraph中ReAct的構建原理.ts
│      Ch 10.2 案例實操:構建復雜工具應用的ReAct自治代理.ts
│      Ch 10.3 LangGraph中如何使用流式輸出.ts
│      Ch 10.4 LangGraph中的事件流.ts
│      Ch 11.1 Agent長短期記憶認知.ts
│      Ch 11.2 LangGraph的短期記憶及Checkpointer(檢查點).ts
│      Ch 11.3 檢查點的特定實現(xiàn)類型-MemorySaver.ts
│      Ch 11.4 檢查點的特定實現(xiàn)類型-SqliteSaver.ts
│      Ch 11.5 長期記憶和Store(倉庫).ts
│      Ch 12.1 LangGraph知識點概述總結.ts
│      Ch 12.2 LangGraph中的HIL實現(xiàn)思路.ts
│      Ch 12.3 標準圖結構中如何添加斷點.ts
│      Ch 12.4 復雜代理架構中如何添加動態(tài)斷點.ts
│      Ch 12.5 案例:具備人機交互的完整Agent信息管理系統(tǒng).ts
│      Ch 13.1 Single-Agent 存在的局限.ts
│      Ch 13.2 Multi-Agent 架構分類及子圖的通信模式 - 副本.ts
│      Ch 13.3 父、子圖狀態(tài)中無共同鍵的通信方式.ts
│      Ch 13.4 案例:基于網(wǎng)絡架構實現(xiàn)智能BI數(shù)據(jù)分析多代理系統(tǒng)(上).ts
│      Ch 13.5 案例:基于網(wǎng)絡架構實現(xiàn)智能BI數(shù)據(jù)分析多代理系統(tǒng)(下).ts
│      Ch 14.1 Supervisor 架構介紹與基本構建原理.ts
│      Ch 14.2 案例:基于 Supervisor 架構實現(xiàn)多代理系統(tǒng).ts
│      Ch 14.3 GraphRAG 基本介紹與核心架構.ts
│      Ch 14.4 案例:Multi-Agent實現(xiàn)混合多知識庫檢索.ts
│      Ch 2.1 AI Agent與LLMs + RAG的本質區(qū)別.ts
│      Ch 2.2 AI Agent三種應用類型及Python實現(xiàn)可交互的聊天機器人.ts
│      Ch 2.3 Funcation Calling 完整生命周期細節(jié)復現(xiàn).ts
│      Ch 2.4 實現(xiàn)具備Funcation Calling的智能電商客服.ts
│      Ch 2.5 Function Calling并行調用和多函數(shù)調用的應用方法.ts
│      Ch 2.6 加餐:OpenAI最新推出的結構化輸出功能介紹.ts
│      Ch 3.1 Funcation Calling 與 AI Agent的本質區(qū)別.ts
│      Ch 3.2 提示工程到代理工程的平滑過度.ts
│      Ch 3.3 ReAct Agent框架的基礎理論.ts
│      Ch 3.4 案例:從零復現(xiàn)ReAct Agent的完整流程.ts
│      Ch 3.5 項目:基于ReAct Agent構建電商智能客服_batch.ts
│      Ch 4.1 Assistant API 框架的整體介紹.ts
│      Ch 4.2 Assistant對象的創(chuàng)建方法.ts
│      Ch 4.3 Thread、Messges及Run應用方法.ts
│      Ch 4.4 Run運行時的狀態(tài)轉移機制.ts
│      Ch 4.5 實現(xiàn)Run狀態(tài)的輪詢方法,并實現(xiàn)Assistant API完整鏈路.ts
│      Ch 5.1 Assistant API 進階應用方法介紹.ts
│      Ch 5.2 File Search內置工具說明及文件管理.ts
│      Ch 5.3 基于 Assistant API 創(chuàng)建在線私有知識庫.ts
│      Ch 5.4 在Assistant和Thread定義File Search工具的四種策略.ts
│      Ch 5.5 如何處理Assistant API輸出響應中的注釋.ts
│      Ch 5.6 Code Interpreter(代碼解釋器)的應用技巧.ts
│      Ch 5.7 基于Funcation Calling實現(xiàn)本地代碼解釋器.ts
│      Ch 6.1 為什么企業(yè)級應用必須接入流式輸出.ts
│      Ch 6.2 Assistant API中流式輸出的開啟方法.ts
│      Ch 6.3 Assistant API 流式傳輸中的事件流原理細節(jié).ts
│      Ch 6.4 如何在 Assistant API 流式傳輸中接入外部函數(shù).ts
│      Ch 6.5 應用案例(1):異步構建Assistant對象的工程化代碼.ts
│      Ch 6.6 應用案例(2):集成外部函數(shù)方法及項目完整功能介紹.ts
│      Ch 7.1 LangChain的AI Agent開發(fā)框架架構設計.ts
│      Ch 7.2 LangGraph 的底層構建原理.ts
│      Ch 7.3 Langgraph底層源碼解析.ts
│      Ch 7.4 LangGraph中如何接入大模型做問答流程.ts
│      Ch 8.1 LangGraph中State的定義模式.ts
│      Ch 8.2 使用字典類型定義狀態(tài)的方法與優(yōu)劣勢.ts
│      Ch 8.3 LangGraph狀態(tài)管理中Reducer函數(shù)的使用.ts
│      Ch 8.4 MessageGraph源碼功能解析.ts
│      Ch 8.5 LangSmith基本原理與使用入門.ts
│      Ch 9.1 LangGraph代理架構及Router Agent介紹.ts
│      Ch 9.2 LangGraph中可應用的三種結構化輸出方法.ts
│      Ch 9.3 結合結構化輸出構建Router Agent(數(shù)據(jù)庫).ts
│      Ch 9.4 Tool Calling Agent 中ToolNode的使用.ts
│      Ch 9.5 Tool Calling Agent的完整實現(xiàn)案例:實時搜索與數(shù)據(jù)庫集成.ts
│      LangGraph 多代理與 GraphRAG 綜合應用實戰(zhàn).ts
│      【MateGenPro】Ch 1. MateGen Pro 項目整體架構介紹.ts
│      【MateGenPro】Ch 2. 本地運行MateGen Pro項目流程.ts
│      【MateGenPro】Ch 3. MateGen Pro 后端API核心模塊設計.ts
│      【MateGenPro】Ch 4. SQLAlchemy原理與項目接入.ts
│      【MateGenPro】Ch 5. MateGen 數(shù)據(jù)庫初始化邏輯.ts
│      【MateGenPro】Ch 6 API_Key接口初始化與校驗.ts
│      【MateGenPro】Ch 7 緩存池與系統(tǒng)初始化邏輯.ts
│      【MateGenPro】Ch 8 會話管理模塊表結構設計與代碼講解.ts
│      大模型應用發(fā)展及Agent前沿技術趨勢.MP4
│      項目開發(fā)實戰(zhàn)一:從零搭建多功能智能體 MateGen Pro(第二部分).ts
│      
├─5-RAG項目實戰(zhàn)企業(yè)篇
│      week_1_1_part_1_課程說明及大模型問答功能復現(xiàn).mp4
│      week_1_1_part_2_本地私有化部署glm4-9b-chat模型.mp4
│      week_1_1_part_3_調用本地啟動的glm4模型的方法.mp4
│      week_1_2_part_1_GLM在線API調用方法.mp4
│      week_1_2_part_2_Langchain應用框架整體介紹.mp4
│      week_1_2_part_3_FastAPI項目介紹.mp4
│      week_2_1_part_1_本周開發(fā)任務說明.mp4
│      week_2_1_part_2_Naive RAG介紹及借助LangChain實現(xiàn)RAG流.mp4
│      week_2_1_part_3_RAG集成歷史對話信息及SqlalChemy持久化存儲的使.mp4
│      week_2_2_part_1_通用問答流程整體流程介紹及參數(shù)說明.mp4
│      week_2_2_part_2_FastChat項目說明及Python多進程.mp4
│      week_2_2_part_3_項目啟動文件詳細說明及流程復現(xiàn).mp4
│      week_3_1_part_1_企業(yè)級RAG的構建架構和思路.mp4
│      week_3_1_part_2_結合Faiss向量數(shù)據(jù)的RAG Indexing構建流程.mp4
│      week_3_1_part_3_百萬量級的wiki公有語料構建方法實踐.mp4
│      week_3_1_part_4_yolox + orc 識別私有PDF語料的方案實踐.mp4
│      week_3_2_part_1_本地RAG知識庫問答功能鏈路詳解與復現(xiàn).mp4
│      week_3_2_part_2_RAG評估框架-TruLens實踐.mp4
│      week_3_2_part_3_RAG評估框架-Ragas的使用及借助GLM4生成評估數(shù)據(jù).mp4
│      week_4_1_part_1_自定義RAG評估Pipeline-構建統(tǒng)一的數(shù)據(jù)集格式.mp4
│      week_4_1_part_2_自定義RAG評估Pipeline-構建統(tǒng)一的提示模板.mp4
│      week_4_1_part_3_自定義RAG評估Pipeline-整體邏輯實現(xiàn)及細節(jié)說明.mp4
│      week_4_1_part_4_自定義RAG評估Pipeline-評估指標及評估流程實現(xiàn).mp4
│      week_4_1_part_5_自定義RAG評估Pipeline-ReRanker原理及實.mp4
│      week_4_2_part_1_Serper API聯(lián)網(wǎng)檢索數(shù)據(jù)預處理過程拆解.mp4
│      week_4_2_part_2_基于Serper實現(xiàn)系統(tǒng)架構下的聯(lián)網(wǎng)實時檢索功能.mp4
│      week_5_part_1_大模型融入推薦系統(tǒng)一種思路_1.MP4
│      week_5_part_2_大模型用于特征工程及實現(xiàn)推薦系統(tǒng)的整體邏輯代碼.MP4
│      week_5_part_3_基于Langchain實現(xiàn)基于ReAct的代碼實踐及TOT提示.MP4
│      week_5_part_4_項目整體框架下實現(xiàn)基于Agent的問答流程代碼實踐.ts
│      week_5_part_5_Docker介紹及借助Docker打包部署完整項目的流程.mp4
│      
├─6-直播回放篇
│  ├─加餐-前沿技術追更
│  │      【加餐】01 Computer Use API 詳解(1)準備工作.ts
│  │      【加餐】02 Computer Use API 詳解(2)對話函數(shù)上.ts
│  │      【加餐】03 Computer Use API 詳解(3)對話函數(shù)下.ts
│  │      【加餐】04 Computer Use API 詳解(4)多輪對話及tool use.ts
│  │      【加餐】05 Computer Use API 詳解(5)全組件總結.ts
│  │      【加餐】06 Computer use實戰(zhàn)初窺.ts
│  │      【加餐】07 Computer Use docker安裝部署全流程.ts
│  │      【加餐】08 Computer Use項目啟動&實戰(zhàn)案例.ts
│  │      【加餐】09 Computer Use源碼詳解.ts
│  │      
│  └─直播回放
│      │  ChatGPT的注冊與ChatGPT API充值.ts
│      │  GLM-4-Video-9b 介紹與部署流程.ts
│      │  GPT4o的API基本調用、精細生成控制與多模態(tài)實操.ts
│      │  GPT4o的函數(shù)調用實戰(zhàn)與結構化生成回答與提示緩存原理.ts
│      │  LangGraph 中 Human-in-the-loop 應用實戰(zhàn).ts
│      │  LangGraph 實現(xiàn)自治循環(huán)代理(ReAct)及事件流的應用.ts
│      │  LangGraph 長短期記憶實現(xiàn)機制及檢查點的使用.ts
│      │  LangGraph中State狀態(tài)模式與LangSmith基礎使用入門.ts
│      │  Llama 3.1&2部署微調.ts
│      │  Llama 3.1介紹與部署流程.ts
│      │  o1模型詳解與模型蒸餾實戰(zhàn).ts
│      │  OPENAI的Streaming流式響應與API微調雙實戰(zhàn),Claude computer use接入自己的電腦.ts
│      │  Qwen2.5-Coder&Math介紹與部署.ts
│      │  Qwen2.5介紹與部署流程.ts
│      │  
│      └─25-1
│              《企業(yè)級 Agent 項目實戰(zhàn):智能客服》- AssistGen.ts
│              
├─DeepSeek-V3&R1
│      【DS-v3 API調用】1.DeepSeek v3模型性能介紹.MP4.mp4
│      【DS-v3 API調用】2.DeepSeek v3開源情況介紹.MP4
│      【DS-v3 API調用】3.DeepSeek API-Key獲取與模型調用方法詳解.MP4
│      【DS-v3 API調用】4.DeepSeek v3模型參數(shù)詳解.MP4.mp4
│      【DS-v3 API調用】5.搭建DeepSeek v3多輪對話機器人.MP4
│      【DS-v3 API調用】6.DS-V3 Function calling功能介紹.MP4.mp4
│      【DS-v3 API調用】7.DS-V3 完整Function calling執(zhí)行流程.MP4.mp4
│      【DS-v3 API調用】8.DS-v3+Open WebUI搭建專屬聊天機器人.MP4
│      
├─PART4:DeepSeekV3?(5小節(jié))
│      【DeepSeekv3】1 整體架構與分布式基礎概念.mp4
│      【DeepSeekv3】2 分布式嵌入層與投影層.mp4
│      【DeepSeekv3】3 MLA潛在注意力 (1) 從自回歸掩碼看KV緩存機制.mp4
│      【DeepSeekv3】4 MLA潛在注意力 (2) 針對KV緩存的改進.mp4
│      【DeepSeekv3】5 DeepSeekMOE的MOE架構與創(chuàng)新.mp4
│      
├─企業(yè)級實戰(zhàn)
│  ├─1
│  │      【MateGenPro】Ch 1. MateGen Pro 項目整體架構介紹.ts
│  │      【MateGenPro】Ch 2. 本地運行MateGen Pro項目流程.ts
│  │      【MateGenPro】Ch 3. MateGen Pro 后端API核心模塊設計.ts
│  │      【MateGenPro】Ch 4. SQLAlchemy原理與項目接入.ts
│  │      【MateGenPro】Ch 5. MateGen 數(shù)據(jù)庫初始化邏輯.ts
│  │      【MateGenPro】Ch 6 API_Key接口初始化與校驗.ts
│  │      【MateGenPro】Ch 7 緩存池與系統(tǒng)初始化邏輯.ts
│  │      【MateGenPro】Ch 8 會話管理模塊表結構設計與代碼講解.ts
│  │      
│  └─2
│          【AssistGen】 Ch 1.1 項目介紹與課程安排.MP4.mp4
│          【AssistGen】 Ch 1.2 Ollama 本地部署 DeepSeek R1 模型.MP4
│          【AssistGen】 Ch 1.3 Ollama REST API 核心接口:gener.MP4.mp4
│          【AssistGen】 Ch 1.4 Ollama 兼容 OpenAI API 接口規(guī)范.MP4
│          【AssistGen】 Ch 1.5 Deepseek v3 & R1 在線 API 調用.MP4
│          【AssistGen】 Ch 1.6 AssistGen 項目結構與本地啟動流程介紹.MP4.mp4
│         
└─低代碼開發(fā)實戰(zhàn)Dify&Coze
        【dify】Ch 1.1 低代碼平臺介紹.MP4.mp4
        【dify】Ch 1.2 Dify介紹與安裝.MP4.mp4
        【dify】Ch 1.3 xinference介紹與安裝.MP4.mp4
        【dify】Ch 1.4 dify&xinference打通融合.MP4.mp4
        【dify】Ch 2.1服務器源碼部署dify&RAG_基礎環(huán)境準備.MP4.mp4
        【dify】Ch 2.2 源碼安裝dify.MP4.mp4
        【dify】Ch 2.3 xinference細化安裝.MP4
        【dify】Ch 2.4 構建知識庫.MP4
        【dify】Ch 2.5 構建簡單RAG.MP4.mp4
        【dify】Ch3.1 window環(huán)境下ollama+deepseek+dify全鏈路.MP4.mp4
        【dify】Ch3.2 xinference+deepseek+dify全鏈路.MP4.mp4
        【dify】Ch3.3 window環(huán)境全鏈路實戰(zhàn)+API檢驗.MP4.mp4