预购商品
书目分类
特别推荐
本書共包括7章,涵蓋了從基礎理論到實際應用的全方位內容。第1章深入探討了大模型的基礎理論。第2章和第3章專注於Llama 2大模型的部署和微調,提供了一系列實用的代碼示例、案例分析和很好實踐。第4章介紹了多輪對話難題,這是許多大模型開發者和研究人員面臨的一大挑戰。第5章探討了如何基於Llama 2定制行業大模型,以滿足特定業務需求。第6章介紹了如何利用Llama 2和LangChain構建高效的文檔問答模型。第7章展示了多語言大模型的技術細節和應用場景。 本書既適合剛入門的學生和研究人員閱讀,也適合有多年研究經驗的專家和工程師閱讀。通過閱讀本書,讀者不僅能掌握Llama 2大模型的核心概念和技術,還能學會如何將這些知識應用於實際問題,從而在這一快速發展的領域中取得優勢。
第1章 大模型的基礎理論 1.1 大模型的發展歷史 1.1.1 從語言模型到預訓練大模型 1.1.2 預訓練大模型的發展 1.1.3 大模型的進化 1.2 大模型的核心框架 1.2.1 Transformer 1.2.2 位置編碼 1.2.3 多頭自注意力機制 1.3 資料收集和資料處理 1.3.1 資料收集 1.3.2 資料處理 1.4 大模型的預訓練及微調 1.4.1 無監督預訓練 1.4.2 指令微調 1.4.3 基於人類回饋微調 1.5 大模型的評測 1.5.1 評測任務 1.5.2 評測資料集 1.5.3 評測方法 1.5.4 評測中的挑戰 第2章 部署Llama 2大模型 2.1 部署前的準備 2.1.1 硬體準備 2.1.2 環境準備 2.2 模型的導入與載入 2.2.1 下載代碼 2.2.2 下載模型 2.3 模型部署 2.3.1 API部署 2.3.2 text-generation-webui 部署 2.3.3 使用text-generation-webui 第3章 微調Llama 2大模型 3.1 微調的資料集準備和標注 3.1.1 資料集準備 3.1.2 資料集標注 3.2 Llama 2大模型載入 3.3 微調策略設計及模型重新訓練 3.3.1 微調策略設計 3.3.2 模型參數高效微調 3.4 模型評估、測試和模型優化 3.4.1 模型評估、測試 3.4.2 模型優化 3.5 模型保存、模型部署和推理加速 3.5.1 模型保存 3.5.2 模型部署 3.5.3 推理加速 第4章 解決Llama 2大模型多輪對話難題 4.1 定制多輪對話資料集和構造方法 4.1.1 準備微調訓練數據的7個原則 4.1.2 定制微調訓練資料集 4.1.3 多輪對話的3個場景 4.2 實操構造多輪對話微調訓練資料集 4.3 通過多輪對話存儲解決資訊流失問題 4.3.1 拼接歷史與當前輸入 4.3.2 上下文向量 4.3.3 對話狀態追蹤 4.3.4 狀態壓縮 4.3.5 增量學習和線上學習 4.4 提高大模型多輪對話應對能力 4.4.1 針對性的資料集與微調 4.4.2 即時回饋與自我調整 4.4.3 強化學習優化 4.4.4 上下文感知與個性化 4.4.5 多模態與多工學習 4.4.6 錯誤處理與恢復策略 4.5 模型評估與持續改進 4.5.1 微調Llama 2大模型評估 4.5.2 持續改進 4.6 適合Llama 2大模型多輪對話的prompt構建 第5章 基於Llama 2定制行業大模型 5.1 業務資料分析指導行業大模型定制 5.1.1 行業大模型的定制策略 5.1.2 模型性能的評估 5.2 行業資料的獲取與預處理 5.2.1 資料獲取 5.2.2 數據預處理 5.3 Llama 2大模型導入初始化 5.4 微調獲得行業特定大模型 5.4.1 領域預訓練 5.4.2 微調策略 5.5 模型測試、評估和優化 第6章 Llama 2 + LangChain文檔問答模型構建 6.1 LangChain介紹 6.2 LangChain的主要概念與示例 6.2.1 模型 6.2.2 提示 6.2.3 輸出解析器 6.2.4 索引 6.2.5 記憶體 6.2.6 鏈 ……
"張俊祺,清華大學電腦系博士,曾獲CIKM 2018專享很好論文獎、 2022年中關村U30等榮譽,原子回聲創始人。 曲東奇,東南大學畢業,德國亥姆霍茲研究中心訪問學者。 張正,清華大學電腦系畢業,對於深度學習、自然語言處理技術有著極其豐富的研究和產業經驗,組織訓練和研發了原子大模型。 占冰強,AIGCLINK發起人,中關村超互聯聯盟副秘書長,行行AI合夥人,曾聯合創辦演算法和數學建模交流平臺數學中國。"
客服公告
热门活动
订阅电子报