會員登入
|
加入會員
|
會員專區
|
購物車
|
自資出版
|
電子書城
|
客服中心
文學小說
商管創投
人文藝坊
勵志養生
進修學習
科學工程
家庭親子
玩樂天地
書名
出版社
作者
isbn
編號
英語會話
|
成交的秘密
|
霹靂影音寫真特典
|
iPhone 4S JB解禁秘術:Cydia 超限軟體300+
此作者無相關書籍
文學小說
文學
|
小說
商管創投
財經投資
|
行銷企管
人文藝坊
宗教、哲學
社會、人文、史地
藝術、美學
|
電影戲劇
勵志養生
醫療、保健
料理、生活百科
教育、心理、勵志
進修學習
電腦與網路
|
語言工具
雜誌、期刊
|
軍政、法律
參考、考試、教科用書
科學工程
科學、自然
|
工業、工程
家庭親子
家庭、親子、人際
青少年、童書
玩樂天地
旅遊、地圖
|
休閒娛樂
漫畫、插圖
|
限制級
業界實戰親授:大型語言模型微調、最佳化、佈署一次到位
作者:
莊建, 滕海云, 莊金蘭
分類:
電腦與網路
/
綜論
出版社:
深智數位
出版日期:2025/6/23
ISBN:9786267569931
書籍編號:kk0602078
頁數:424
定價:
980
元
一般會員價:
79
折
774
元
特別會員價:
79
折
774
元
書價若有異動,以出版社實際定價為準
訂購後立即為您進貨
訂購後立即為您進貨:目前無庫存量,讀者下訂後,開始進入調書程序,一般天數約為2-10工作日(不含例假日)。
團購數最低為 15 本以上
評價數:
(請將滑鼠移至星星處進行評價)
目前平均評價:
文字連結
複製語法
業界實戰親授:大型語言模型微調、最佳化、佈署一次到位
圖片連結
複製語法
分
享
•
-
內容簡介
書籍目錄
同類推薦
業界實戰親授:大型語言模型微調、最佳化、佈署一次到位 內容簡介 ►回顧對話機器人歷史,從人機交流到現代語言模型 ►解析人工智慧發展,聚焦通用人工智慧(AGI) ►指導大型語言模型私有化部署,涵蓋環境建置 ►介紹語言模型核心理論,從統計方法到Transformer ►解析Hugging Face與Transformers函數庫應用 ►介紹高效微調技術,如Prompt Tuning與LoRA ►實作LoRA與QLoRA微調GLM-4,提升效能 ►探討提示工程,提升模型推理與應用能力 ►解析多角色對話與AI Agent的運作模式 ►介紹LangChain框架,涵蓋Chain與Agents ►展示垂直領域模型應用,以紅十字會資料實作 ►解析檢索增強生成(RAG),結合LLM與知識庫 本書第一章回顧對話機器人的發展,探討人工智慧的演進與未來趨勢。第二章介紹大型語言模型的私有化部署,包括CUDA環境建置、PyTorch安裝與GLM-4模型執行。第三章解析語言模型的理論基礎,涵蓋統計語言模型、Transformer架構與Attention機制。第四章說明Hugging Face與Transformers函數庫的應用,幫助讀者開發與微調LLM。第五章介紹高效微調技術,如Prompt Tuning、LoRA、QLoRA等方法,提升模型效能。第六章進一步探討LoRA微調GLM-4的實戰應用與量化技術。第七章解析提示工程,說明Few-shot、Chain of Thought等推理增強技術。第八章介紹AI Agent與多角色對話模式,並探討Function Calling的應用。第九章深入LangChain框架,涵蓋Chain、Memory與Agents的實作,並整合資料庫與檢索增強生成(RAG)技術。第十章展示大型模型在垂直領域的應用,例如微調GLM-4處理紅十字會資料,提供完整的實戰示範。
目錄 ▍第1章 從零開始大型模型之旅 1.1 對話機器人歷史 1.1.1 人機同頻交流 1.1.2 人機對話發展歷史 1.2 人工智慧 1.2.1 從感知到創造 1.2.2 通用人工智慧 1.2.3 發展方向 1.2.4 本書焦點 1.3 本章小結 ▍第2章 大型模型私有化部署 2.1 CUDA 環境準備 2.1.1 基礎環境 2.1.2 大型模型執行環境 2.1.3 安裝顯示卡驅動 2.1.4 安裝CUDA 2.1.5 安裝cuDNN 2.2 深度學習環境準備 2.2.1 安裝Anaconda 環境 2.2.2 伺服器環境下的環境啟動 2.2.3 安裝PyTorch 2.3 GLM-3 和GLM-4 2.3.1 GLM-3 介紹 2.3.2 GLM-4 介紹 2.4 GLM-4 私有化部署 2.4.1 建立虛擬環境 2.4.2 下載GLM-4 專案檔案 2.4.3 安裝專案相依套件 2.4.4 下載模型權重 2.5 執行GLM-4 的方式 2.5.1 基於命令列的互動式對話 2.5.2 基於Gradio 函數庫的Web 端對話應用 2.5.3 OpenAI 風格的API 呼叫方法 2.5.4 模型量化部署 2.6 本章小結 ▍第3章 大型模型理論基礎 3.1 自然語言領域中的資料 3.1.1 時間序列資料 3.1.2 分詞 3.1.3 Token 3.1.4 Embedding 3.1.5 語義向量空間 3.2 語言模型歷史演進 3.2.1 語言模型歷史演進 3.2.2 統計語言模型 3.2.3 神經網路語言模型 3.3 注意力機制 3.3.1 RNN 模型 3.3.2 Seq2Seq 模型 3.3.3 Attention 注意力機制 3.4 Transformer 架構 3.4.1 整體架構 3.4.2 Self-Attention 3.4.3 Multi-Head Attention 3.4.4 Encoder 3.4.5 Decoder 3.4.6 實驗效果 3.5 本章小結 ▍第4章 大型模型開發工具 4.1 Huggingface 4.1.1 Huggingface 介紹 4.1.2 安裝Transformers 函數庫 4.2 大型模型開發工具 4.2.1 開發範式 4.2.2 Transformers 函數庫核心設計 4.3 Transformers 函數庫詳解 4.3.1 NLP 任務處理全流程 4.3.2 資料轉換形式 4.3.3 Tokenizer 4.3.4 模型載入和解讀 4.3.5 模型的輸出 4.3.6 模型的儲存 4.4 全量微調訓練方法 4.4.1 Datasets 函數庫和Accelerate 函數庫 4.4.2 資料格式 4.4.3 資料前置處理 4.4.4 模型訓練的參數 4.4.5 模型訓練 4.4.6 模型評估 4.5 本章小結 ▍第5章 高效微調方法 5.1 主流的高效微調方法介紹 5.1.1 微調方法介紹 5.1.2 Prompt 的提出背景 5.2 PEFT 函數庫快速入門 5.2.1 介紹 5.2.2 設計理念 5.2.3 使用 5.3 Prefix Tuning 5.3.1 背景 5.3.2 核心技術解讀 5.3.3 實現步驟 5.3.4 實驗結果 5.4 Prompt Tunin 5.4.1 背景 5.4.2 核心技術解讀 5.4.3 實現步驟 5.4.4 實驗結果 5.5 P-Tuning 5.5.1 背景 5.5.2 核心技術解讀 5.5.3 實現步驟 5.5.4 實驗結果 5.6 P-Tuning V2 5.6.1 背景 5.6.2 核心技術解讀 5.6.3 實現步驟 5.6.4 實驗結果 5.7 本章小結 ▍第6章 LoRA 微調GLM-4 實戰 6.1 LoRA 6.1.1 背景 6.1.2 核心技術解讀 6.1.3 LoRA 的特點 6.1.4 實現步驟 6.1.5 實驗結果 6.2 AdaLoRA 6.2.1 LoRA 的缺陷 6.2.2 核心技術解讀 6.2.3 實現步驟 6.2.4 實驗結果 6.3 QLoRA 6.3.1 背景 6.3.2 技術原理解析 6.4 量化技術 6.4.1 背景 6.4.2 量化技術分類 6.4.3 BitsAndBytes 函數庫 6.4.4 實現步驟 6.4.5 實驗結果 6.5 本章小結 ▍第7章 提示工程入門與實踐 7.1 探索大型模型潛力邊界 7.1.1 潛力的來源 7.1.2 Prompt 的六個建議 7.2 Prompt 實踐 7.2.1 四個經典推理問題 7.2.2 大型模型原始表現 7.3 提示工程 7.3.1 提示工程的概念 7.3.2 Few-shot 7.3.3 透過思維鏈提示法提升模型推理能力 7.3.4 Zero-shot-CoT 提示方法 7.3.5 Few-shot-CoT 提示方法 7.4 Least-to-Most Prompting(LtM 提示方法) 7.4.1 Least-to-Most Prompting 基本概念 7.4.2 Zero-shot-LtM 提示過程 7.4.3 效果驗證 7.5 提示使用技巧 7.5.1 B.R.O.K.E 提示框架 7.5.2 C.O.A.S.T 提示框架 7.5.3 R.O.S.E.S 提示框架 7.6 本章小結 ▍第8章 大型模型與中介軟體 8.1 AI Agent 8.1.1 從AGI 到Agent 8.1.2 Agent 概念 8.1.3 AI Agent 應用領域 8.2 大型模型對話模式 8.2.1 模型分類 8.2.2 多角色對話模式 8.3 多角色對話模式實戰 8.3.1 messages 參數結構及功能解釋 8.3.2 messages 參數中的角色劃分 8.4 Function Calling 功能 8.4.1 發展歷史 8.4.2 簡單案例 8.5 實現多函數 8.5.1 定義多個工具函數 8.5.2 測試結果 8.6 Bing 搜索嵌入LLM 8.6.1 曇花一現的Browsing with Bing 8.6.2 需求分析 8.6.4 建構自動搜索問答機器人 8.7 本章小結 ▍第9章 LangChain 理論與實戰 9.1 整體介紹 9.1.1 什麼是LangChain 9.1.2 意義 9.1.3 整體架構 9.2 Model I/O 9.2.1 架構 9.2.2 LLM 9.2.3 ChatModel 9.2.4 Prompt Template 9.2.5 實戰:LangChain 連線本地GLM 9.2.6 Parser 9.3 Chain 9.3.1 基礎概念 9.3.2 常用的Chain 9.4 Memory 9.4.1 基礎概念 9.4.2 流程解讀 9.4.3 常用Memory 9.5 Agents 9.5.1 理論 9.5.2 快速入門 9.5.3 架構 9.6 LangChain 實現Function Calling 9.6.1 工具定義 9.6.2 OutputParser 9.6.3 使用 9.7 本章小結 ▍第10章 實戰:垂直領域大型模型 10.1 QLoRA 微調GLM-4 10.1.1 定義全域變數和參數 10.1.2 紅十字會資料準備 10.1.3 訓練模型 10.2 大型模型連線資料庫 10.2.1 大型模型挑戰 10.2.2 資料集準備 10.2.3 SQLite3 10.2.4 獲取資料庫資訊 10.2.5 建構tools 資訊 10.2.6 模型選擇 10.2.7 效果測試 10.3 LangChain 重寫查詢 10.3.1 環境配置 10.3.2 工具使用 10.4 RAG 檢索增強 10.4.1 自動化資料生成 10.4.2 RAG 架設 10.5 本章小結 ▍參考文獻
從數學開始的AI,基
不寫程式的電腦思維課
座標的誕生,一場跨越
人機互動進化史,邁向
未來算力,量子AI技
超智慧合作,AI產品
標籤科技的原理與實際
「生成式⇄
DeepSeek快速
FLAG’S 創客•
Q1:若我已報名付了1000元訂金,接下來我要做什麼? A:感謝您報名,後續相關事情及服務我們會以e-mail和電話跟您聯絡. 您也可以主動來信(andy@book4u.com.tw)詢問。謝謝! Q2:我本身並沒有產品和服務,也沒什麼實務上的經驗,那又能如何賺錢呢?這個課程真的有實際成效嗎? A:我們這個課程共有11項贈品,其中第2項贈品便是資訊產品創造藍圖,它將教您如何用最簡潔而快速的方法創出屬於您自己的資訊產品。一般的課程大多是教您如何捕魚,但多數的成功致富者,其成功的關鍵卻不是仰賴捕魚技術,而是仰賴借力之術,因為唯有借力才能無中生有!才能快速成長!也才能快速致富!本課程3天共有三套樣版,其中一套樣版便是教您打造在沒有任何商品與服務,也沒有任何資源的情況下,就能快速借力致富的樣版!本課程二位講師都是白手起家,對於沒有實務經驗的新手會格外用心,請放心。 Q3:請問贈品中魚池矩陣直效聯盟VVIP是什麼? A:這是一個強大的系統,而我們送的是體驗版,會提供你Email追客系統。國外有一種函授課程,亦即每幾天發一個課程給學員, 就是用EMAIL追客系統來實踐。EMAIL追客系統簡單的說就是今天有一個客戶在你的網站上購買產品或註冊,系統會自動回覆一封確認信,之後你可以自行設計發送內容和發信時間一次一對多發給客戶,而且每封信還會帶入客戶本身的姓名。讓客戶以為是我們專門為客戶所量身訂作的信件。所以Email追客系統可以讓你培養跟客戶的信任感,進而成交。 Q4:請問贈品中資訊產品創造藍圖是什麼? A:這是一位叫林星?老師的課程,課程售價是9800元,現在免費送給你。此課程包含: ● 何謂資訊型產品? ● 資訊型產品的種類大解析!以及如何組織你的資訊型產品賺錢? ● 如何找到你的利基市場? ● 為什麼錯的利基市場,再好的產品與行銷也很難有效! ● 29個國外已經證實能讓你賺到錢的利基市場! ● 如何確保你做出來的產品客戶會很想購買?以及實際可執行的步驟! ● 創造資訊型產品計劃書 ● 15個步驟建立你的資訊型產品事業 ● E-mail精準行銷的10個法則 ● 10個別人沒有告訴你的有效文案撰寫法則 Q5:請問贈品中自動財富系統 6片DVD是什麼? A:此6片DVD定價3200元。內容為《借力淘金!最吸利的鈔級魚池賺錢術》作者之一王紫杰所錄製的DVD,內容為有關網路行銷的知識和技巧,非常豐富且實用,免費送給您。
為了保障您的權益,新絲路網路書店所購買的商品均享有到貨七天的鑑賞期(含例假日)。退回之商品必須於鑑賞期內寄回(以郵戳或收執聯為憑),且商品必須是全新狀態與完整包裝(商品、附件、內外包裝、隨貨文件、贈品等),否則恕不接受退貨。