预购商品
书目分类
特别推荐
致謝 前言 這本書是為誰準備的 這本書沒有複雜的數學和代碼 如果你想要的話,這裡有代碼 圖片也可以找到! 勘誤 關於本書 第1部分:基礎理論 第2部分:初級機器學習 第3部分:深度學習的基礎 第4部分:進階知識 最後的話 第一部分 基礎理論 第1章 機器學習技術概述 1.1 專家系統 1.2 監督學習 1.3 無監督學習 1.4 強化學習 1.5 深度學習 1.6 本章總結 第2章 統計學基礎 2.1 描述隨機性 2.2 隨機變數與概率分佈 2.3 常見的分佈 2.3.1 連續分佈 2.3.2 離散分佈 2.4 隨機值的集合 2.4.1 期望值 2.4.2 依賴 2.4.3 獨立同分佈變數 2.5 採樣與替換 2.5.1 替換採樣法 2.5.2 無替換採樣法 2.6 自採樣法 2.7 協方差和相關性 2.7.1 協方差 2.7.2 相關性 2.8 統計資料的局限性 2.9 高維空間 2.10 本章總結 第3章 性能度量 3.1 不同類型的概率 3.1.1 投擲飛鏢 3.1.2 簡單概率 3.1.3 條件概率 3.1.4 聯合概率 3.1.5 邊緣概率 3.2 評價正確性 3.2.1 樣本分類 3.2.2 混淆矩陣 3.2.3 錯誤的特徵 3.2.4 評價正確與否 3.2.5 準確率 3.2.6 精度 3.2.7 召回率 3.2.8 精度與召回率的權衡 3.2.9 誤導性結果 3.2.10 F1分數 3.2.11 關於這些指標 3.2.12 其他評價方式 3.3 正確構造混淆矩陣 3.4 本章總結 第4章 貝葉斯方法 4.1 頻率法與貝葉斯概率 4.1.1 頻率法 4.1.2 貝葉斯方法 4.1.3 頻率派與貝葉斯派 4.2 頻率法拋擲硬幣 4.3 貝葉斯方法拋擲硬幣 4.3.1 啟發性的例子 4.3.2 繪製拋擲硬幣的概率 4.3.3 用概率表示拋擲硬幣 4.3.4 貝葉斯公式 4.3.5 關於貝葉斯公式的討論 4.4 貝葉斯公式與混淆矩陣 4.5 再論貝葉斯公式 4.5.1 後驗-先驗迴圈 4.5.2 貝葉斯迴圈實戰 4.6 多重假設 4.7 本章總結 第5章 曲線和曲面 5.1 函數的性質 5.2 導數 5.2.1 優選值和最小值 5.2.2 切線 5.2.3 用導數求最小值和優選值 5.3 梯度 5.3.1 水、重力和梯度 5.3.2 用梯度求優選值和最小值 5.3.3 鞍點 5.4 本章總結 第6章 資訊理論 6.1 資訊帶給我們的驚訝感 6.1.1 為什麼會驚訝 6.1.2 信息解密 6.2 衡量信息量 6.3 自我調整碼 6.3.1 摩斯電碼 6.3.2 調整摩斯電碼 6.4 熵 6.5 交叉熵 6.5.1 兩種自我調整碼 6.5.2 使用編碼 6.5.3 實踐中的交叉熵 6.6 KL散度 6.7 本章總結 第二部分 初級機器學習 第7章 分類 7.1 二維空間的二元分類問題 7.2 二維空間的多分類問題 7.3 多元分類 7.3.1 一對多 7.3.2 一對一 7.4 聚類 7.5 維度詛咒 7.5.1 維度和密度 7.5.2 高維奇異性 7.6 本章總結 第8章 訓練和測試 8.1 訓練 8.2 測試 8.2.1 測試集 8.2.2 驗證集 8.3 交叉驗證 8.4 k-Fold交叉驗證法 8.5 本章總結 第9章 過擬合與欠擬合 9.1 找到一個好的擬合 9.1.1 過擬合 9.1.2 欠擬合 9.2 檢測和解決過擬合 9.2.1 提前停止 9.2.2 正則化 9.3 偏差和方差 9.3.1 匹配基礎資料 9.3.2 高偏差與低方差 9.3.3 低偏差與高方差 9.3.4 比較曲線 9.4 用貝葉斯方法擬合直線 9.5 本章總結 第10章 數據預處理 10.1 基本資料清洗 10.2 資料一致性 10.3 資料類型 10.4 獨熱編碼 10.5 歸一化與標準化 10.5.1 歸一化 10.5.2 標準化 10.5.3 記錄轉換過程 10.6 其他轉換方式 10.6.1 切片處理 10.6.2 樣本切片 10.6.3 特徵切片 10.6.4 元素切片 10.7 逆變換 10.8 交叉驗證中的資訊洩露 10.9 收縮資料集 10.9.1 特徵選擇 10.9.2 降維 10.10 主成分分析 10.10.1 簡單圖像的PCA處理 10.10.2 真實圖像的主成分分析 10.11 本章總結 第11章 分類器 11.1 常見分類器 11.2 k-最近鄰演算法 11.3 決策樹 11.3.1 決策樹概覽 11.3.2 決策樹構建 11.3.3 過擬合樹 11.3.4 拆分節點 11.4 支持向量機 11.4.1 基礎演算法 11.4.2 支援向量機核函數 11.5 樸素貝葉斯 11.6 分類器的對比 11.7 本章總結 第12章 集成學習 12.1 投票 12.2 決策樹的集成 12.2.1 裝袋演算法 12.2.2 隨機森林 12.2.3 特別隨機樹集成 12.3 助推法 12.4 本章總結 第三部分 深度學習的基礎 第13章 神經網路 13.1 生物神經元 13.2 人工神經元 13.2.1 感知器 13.2.2 現代人工神經元 13.3 繪製神經元 13.4 前饋網路 13.5 神經網路圖 13.6 初始化權重 13.7 深度神經網路 13.8 全連接層 13.9 張量 13.10 防止坍縮 13.11 啟動函數 13.11.1 直線函數 13.11.2 階躍函數 13.11.3 分段線性函數 13.11.4 平滑函數 13.11.5 啟動函數圖像總結 13.11.6 比較啟動函數 13.12 Softmax函數 13.13 本章總結 第14章 反向傳播演算法 14.1 訓練過程概述 14.1.1 降低誤差 14.1.2 一種緩慢的學習演算法 14.1.3 梯度下降 14.2 快速開始 14.3 微型神經網路中的反向傳播 14.3.1 尋找輸出神經元的增量 14.3.2 使用δ來調整權重 14.3.3 其他神經元的δ值 14.4 大型神經網路中的反向傳播演算法 14.5 學習率 14.5.1 構建二分類器 14.5.2 選擇學習率 14.5.3 更小的學習率 14.6 本章總結 第15章 優化器 15.1 用二維曲線表示誤差 15.2 調整學習率 15.2.1 恒定大小的更新 15.2.2 隨著時間的推移改變學習率 15.2.3 衰減調整策略 15.3 更新策略 15.3.1 批量梯度下降法 15.3.2 隨機梯度下降法 15.3.3 小批次梯度下降法 15.4 梯度下降的變體 15.4.1 動量 15.4.2 内斯特羅夫動量 15.4.3 AdaGrad演算法 15.4.4 Adadelta和RMSProp演算法 15.4.5 Adam演算法 15.5 優化器的選擇 15.6 正則化 15.6.1 Dropout 15.6.2 BatchNorm 15.7 本章總結 第四部分 進階知識 第16章 卷積神經網路 16.1 初識卷積 16.1.1 顏色檢測 16.1.2 權重共用 16.1.3 大一點的卷積核 16.1.4 卷積核和特徵 16.1.5 填充 16.2 多維卷積 16.3 多重卷積核 16.4 卷積層 16.4.1 一維卷積 16.4.2 1×1卷積 16.5 更改輸出大小 16.5.1 池化 16.5.2 跨步前進 16.5.3 轉置卷積 16.6 卷積核的層次結構 16.6.1 簡化假設 16.6.2 尋找面具 16.6.3 尋找眼睛、鼻子和嘴巴 16.6.4 應用卷積核 16.7 本章總結 第17章 卷積網路實踐 17.1 手寫數字分類 17.2 VGG16 17.3 圖解卷積核(1) 17.4 圖解卷積核(2) 17.5 對抗樣本 17.6 本章總結 第18章 自編碼器 18.1 編碼簡介 18.2 混合表示 18.3 最簡單的自編碼器 18.4 更好的自編碼器 18.5 探索自編碼器 18.5.1 探索潛在變數 18.5.2 參數空間 18.5.3 混合潛在變數 18.5.4 基於新輸入的預測 18.6 卷積自編碼器 18.6.1 混合潛在變數 18.6.2 基於新輸入的預測 18.7 去噪 18.8 可變自編碼器 18.8.1 潛在變數的分佈 18.8.2 可變自編碼器結構 18.9 探索VAE 18.9.1 使用MNIST樣本 18.9.2 使用兩個潛在變數 18.9.3 產生新的輸入 18.10 本章總結 第19章 迴圈神經網路 19.1 處理語言 19.1.1 常見的NLP任務 19.1.2 文本數值化 19.1.3 微調和下游網路 19.2 全連接預測 19.2.1 測試網路 19.2.2 失敗的原因 19.3 迴圈神經網路 19.3.1 狀態 19.3.2 卷起圖表 19.3.3 實踐迴圈單元 19.3.4 訓練迴圈神經網路 19.3.5 長短期記憶及閘控迴圈網路 19.4 使用迴圈神經網路 19.4.1 處理太陽黑子資料 19.4.2 生成文本 19.4.3 其他架構 19.5 Seq2Seq 19.6 本章總結 第20章 注意力機制和Transformer模型 20.1 嵌入 20.1.1 詞嵌入技術 20.1.2 ELMo模型 20.2 注意力機制 20.2.1 形象比喻 20.2.2 自注意力機制 20.2.3 Q/KV注意力機制 20.2.4 多頭注意力機制 20.2.5 層圖示 20.3 Transformer模型 20.3.1 跳躍連接 20.3.2 Norm-Add 20.3.3 位置編碼 20.3.4 構建Transformer模組 20.3.5 運行Transformer模組 20.4 BERT和GPT-2 20.4.1 BERT 20.4.2 GPT-2 20.4.3 生成器討論 20.4.4 數據中毒 20.5 本章總結 第21章 強化學習 21.1 基本思想 21.2 學習新遊戲 21.3 強化學習的結構 21.3.1 步驟1:代理選擇操作 21.3.2 步驟2:環境做出反應 21.3.3 步驟3:代理自我更新 21.3.4 回到全域 21.3.5 理解回報 21.4 Flippers 21.5 L-Learning 21.5.1 基礎知識 21.5.2 L-Learning演算法 21.5.3 性能測試 21.5.4 不可預測性 21.6 Q-Learning 21.6.1 Q值和更新 21.6.2 Q-Learning策略 21.6.3 策略總覽 21.6.4 房間裡的大象 21.6.5 Q-Learning的作用 21.7 SARSA 21.7.1 SARSA演算法 21.7.2 SARSA的作用 21.7.3 Q-Learning與SARSA的比較 21.8 縱觀全域 21.9 本章總結 第22章 生成對抗網路 22.1 偽造籌碼 22.1.1 從經驗中學習 22.1.2 訓練生成器網路 22.1.3 學習過程 22.1.4 理解對抗性 22.2 實現生成對抗網路 22.2.1 鑒別器 22.2.2 生成器 22.2.3 訓練生成對抗網路 22.3 生成對抗網路的作用 22.3.1 構建鑒別器和生成器 22.3.2 訓練網路 22.3.3 測試網路 22.4 深度卷積生成對抗網路 22.5 挑戰 22.5.1 大樣本訓練 22.5.2 模態崩潰 22.5.3 使用生成的資料訓練 22.6 本章總結 第23章 創意應用 23.1 深夢系統 23.1.1 刺激卷積核 23.1.2 測試我們的演算法 23.2 神經風格遷移 23.2.1 表現風格 23.2.2 表現內容 23.2.3 風格和內容 23.2.4 測試演算法 23.3 生成本書更多內容 23.4 本章總結 23.5 最後的思考 參考文獻 圖片來源 索引
最近浏览商品
客服公告
热门活动
订阅电子报