预购商品
书目分类
特别推荐
|Chapter 01| 模型該如何理解文字 1.1 Tokenizer介紹 1.2 文字向量化的方式 1.3 程式實作:建立BPE Tokenizer 1.4 本章總結 |Chapter 02| 用數學來告訴你何謂神經網路 2.1 自然語言模型是如何運行的 2.2 程式實作:手刻NLP神經網路 2.3 本章總結 |Chapter 03| Pytorch的訓練方式與模型的優化方式 3.1 模型的優化方式 3.2 Pytorch介紹與安裝 3.3 程式實作:建立訓練器 3.4 本章總結 |Chapter 04| 文字也是一種有時間序列的資料 4.1 循環神經網路 4.2 LSTM(Long short-term memory) 4.3 GRU(Gated Recurrent Unit ) 4.4 程式實作:IMDB影評情緒分析 4.5 本章總結 |Chapter 05| 該如何生成文字Seq2seq架構解析 5.1 Seq2Sqe 介紹 5.2 Seq2Sqe + Attention 5.3 程式實作:中英翻譯模型 5.4 本章總結 |Chapter 06| 萬物皆可Transformer 6.1 Transformer介紹 6.2 Transformer Encoder 6.3 Transformer Decoder 6.4 程式實作:新聞文字摘要 6.5 本章總結 |Chapter 07| 站在巨人肩膀上的預訓練模型BERT 7.1 預訓練模型 7.2 模型微調 7.3 BERT 7.4 程式實作:使用SQuAD做QA問答 7.5 本章總結 |Chapter 08| 暴力的美學GPT的強大能力 8.1 GPT-1 8.2 GPT-2 8.3 GPT-3 8.4 程式實作:用生成式AI來回答問題 8.5 本章總結 |Chapter 09| 大型語言模型時代的起點 9.1 InstructGPT 9.2 ChatGPT 9.3 ChatGPT API申請方式 9.4 程式實作:打造個人的Linebot助手 9.5 本章總結 |Chapter 10| 建立屬於自己的大型語言模型 10.1 LLaMA 10.2 QLorA 10.3 NEFtune 10.4 程式實作:用LLaMA 3訓練聊天機器人 10.5 本章總結
作者簡介 黃朝隆 國立高雄應用科技大學電機工程系碩士班,專攻電機與資訊工程。在學期間積極參與多項學術研究和實務專案,並將這些經驗應用於各類競賽,曾取得AI CUP亞軍及專題競賽等優異成績。 作者致力於將複雜的概念,以簡潔和易於理解的方式傳遞給他人。除了學術上的成就,作者也熱衷於教育工作,不僅在國內擔任家教,更曾在國外擔任碩士生的程式語言家教。強調自主學習的重要性,希望培養學生的自學能力,幫助他們發現自己的學習節奏與興趣所在,透過設計具挑戰性且實用的課程,讓學生不僅能掌握理論知識,更能培養獨立思考與解決問題的能力。
客服公告
热门活动
订阅电子报