预购商品
书目分类
特别推荐
前 言 致 謝 關於作者 譯者序 常見問題 為什麼選擇PyTorch? 為什麼選擇這套書? 誰應該讀這套書? 我需要知道什麼? 如何閱讀這套書? 下一步是什麼? 設置指南 官方資料庫 環境 穀歌Colab Binder 本地安裝 繼續 第0章 視覺化梯度下降 劇透 Jupyter Notebook 導入 視覺化梯度下降 模型 數據生成 合成數據生成 訓練-驗證-測試拆分 第0步——隨機初始化 第1步——計算模型的預測 第2步——計算損失 損失面 橫截面 第3步——計算梯度 視覺化梯度 反向傳播 第4步——更新參數 學習率 第5步——循環往復 梯度下降的路徑 回顧 第1章 一個簡單的回歸問題 劇透 Jupyter Notebook 導入 一個簡單的回歸問題 數據生成 合成數據生成 梯度下降 第0步——隨機初始化 第1步——計算模型的預測 第2步——計算損失 第3步——計算梯度 第4步——更新參數 第5步——循環往復 Numpy中的線性回歸 PyTorch 張量 載入數據、設備和CUDA 創建參數 Autograd backward grad zero_ 更新參數 no_grad 動態計算圖 優化器 step/zero_grad 損失 模型 參數 state_dict 設備 前向傳遞 訓練 嵌套模型 序列(Sequential)模型 層 歸納總結 數據準備 模型配置 模型訓練 回顧 第2章 重新思考訓練迴圈 劇透 Jupyter Notebook 導入 重新思考訓練迴圈 訓練步驟 Dataset TensorDataset DataLoader 小批量內迴圈 隨機拆分 評估 繪製損失 TensorBoard 在Notebook中運行 單獨運行(本地安裝) 單獨運行(Binder) SummaryWriter add_graph add_scalars 保存和載入模型 模型狀態 保存 恢復訓練 部署/做出預測 設置模型的模式 歸納總結 回顧 第2.1章 追求優雅 劇透 Jupyter Notebook 導入 追求優雅 類 構造方法 訓練方法 保存和載入方法 視覺化方法 完整代碼 典型的管道 模型訓練 做出預測 檢查點 恢復訓練 歸納總結 回顧 第3章 一個簡單的分類問題 劇透 Jupyter Notebook 導入 一個簡單的分類問題 數據生成 數據準備 模型 logit 概率 比值比(Odds Ratio) 對數比值比 從logit到概率 Sigmoid 邏輯斯蒂回歸 損失 BCELoss BCEWithLogitsLoss 不平衡數據集 模型配置 模型訓練 決策邊界 分類閾值 混淆矩陣 指標 權衡和曲線 歸納總結 回顧
丹尼爾·沃格特·戈多伊 是一名數據科學家、開發人員、作家和教師。自2016年以來,他一直在柏林歷史最悠久的訓練營Data Science Retreat講授機器學習和分散式運算技術,幫助數百名學生推進職業發展。丹尼爾還是兩個Python軟件包——HandySpark和DeepReplay的主要貢獻者。他擁有在多個行業20多年的工作經驗,這些行業包括銀行、政府、金融科技、零售和移動出行等。
客服公告
热门活动
订阅电子报