智汇书屋 -深度学习图解
本书资料更新时间:2025-01-09 19:42:01

深度学习图解 下载 pdf 电子版 epub 免费 txt 2025

深度学习图解精美图片
》深度学习图解电子书籍版权问题 请点击这里查看《

深度学习图解书籍详细信息

  • ISBN:9787302540991
  • 作者:暂无作者
  • 出版社:暂无出版社
  • 出版时间:2020-1
  • 页数:292
  • 价格:99
  • 纸张:暂无纸张
  • 装帧:暂无装帧
  • 开本:暂无开本
  • 语言:未知
  • 丛书:暂无丛书
  • TAG:暂无
  • 豆瓣评分:暂无豆瓣评分
  • 豆瓣短评:点击查看
  • 豆瓣讨论:点击查看
  • 豆瓣目录:点击查看
  • 读书笔记:点击查看
  • 原文摘录:点击查看
  • 更新时间:2025-01-09 19:42:01

内容简介:

《深度学习图解》指导你从最基础的每一行代码开始搭建深度学习网络!经验丰富的深度学习专家Andrew W. Trask以有趣的图解方式为你揭开深度学习的神秘面纱,使你可亲身体会训练神经网络的每个细节。只需要使用Python语言及其最基本的数学库NumPy,就可以训练出自己的神经网络,借助它观察并理解图像、将文字翻译成不同的语言,甚至像莎士比亚一样写作!当你完成这一切后,就为成为精通深度学习框架的专家做好了充分准备!

主要内容:

• 深度学习的基础科学原理

• 自行设计和训练神经网络

• 隐私保护的知识,包括联邦学习

• 帮助你继续深度学习之旅的建议


书籍目录:

目录

第1章 深度学习简介:为什么应该学习深度学习 1

1.1 欢迎阅读《深度学习图解》 1

1.2 为什么要学习深度学习 2

1.3 这很难学吗? 3

1.4 为什么要阅读本书 3

1.5 准备工作 4

1.6 你可能需要掌握一部分Python知识 5

1.7 本章小结 6

第2章 基本概念:机器该如何学习? 7

2.1 什么是深度学习? 7

2.2 什么是机器学习? 8

2.3 监督机器学习 9

2.4 无监督机器学习 10

2.5 参数学习和非参数学习 10

2.6 监督参数学习 11

2.7 无监督参数学习 13

2.8 非参数学习 14

2.9 本章小结 15

第3章 神经网络预测导论:前向传播 17

3.1 什么是预测 17

3.2 能够进行预测的简单神经网络 19

3.3 什么是神经网络? 20

3.4 这个神经网络做了什么? 21

3.5 使用多个输入进行预测 23

3.6 多个输入:这个神经网络做了什么? 24

3.7 多个输入:完整的可运行代码 29

3.8 预测多个输出 30

3.9 使用多个输入和输出进行预测 32

3.10 多输入多输出神经网络的工作原理 33

3.11 用预测结果进一步预测 35

3.12 NumPy快速入门 37

3.13 本章小结 40

第4章 神经网络学习导论:梯度下降 41

4.1 预测、比较和学习 41

4.2 什么是比较 42

4.3 学习 42

4.4 比较:你的神经网络是否做出了好的预测? 43

4.5 为什么需要测量误差? 44

4.6 最简单的神经学习形式是什么? 45

4.7 冷热学习 46

4.8 冷热学习的特点 47

4.9 基于误差调节权重 48

4.10 梯度下降的一次迭代 50

4.11 学习就是减少误差 52

4.12 回顾学习的步骤 54

4.13 权重增量到底是什么? 55

4.14 狭隘的观点 57

4.15 插着小棍的盒子 58

4.16 导数:两种方式 59

4.17 你真正需要知道的 60

4.18 你不需要知道的 60

4.19 如何使用导数来学习 61

4.20 看起来熟悉吗? 62

4.21 破坏梯度下降 63

4.22 过度修正的可视化 64

4.23 发散 65

4.24 引入α 66

4.25 在代码中实现α 66

4.26 记忆背诵 67

第5章 通用梯度下降:一次学习多个权重 69

5.1 多输入梯度下降学习 69

5.2 多输入梯度下降详解 71

5.3 回顾学习的步骤 75

5.4 单项权重冻结:它有什么作用? 77

5.5 具有多个输出的梯度下降学习 79

5.6 具有多个输入和输出的梯度下降 81

5.7 这些权重学到了什么? 83

5.8 权重可视化 85

5.9 点积(加权和)可视化 86

5.10 本章小结 87

第6章 建立你的第一个深度神经网络:反向传播 89

6.1 交通信号灯问题 89

6.2 准备数据 91

6.3 矩阵和矩阵关系 92

6.4 使用Python创建矩阵 95

6.5 建立神经网络 96

6.6 学习整个数据集 97

6.7 完全、批量和随机梯度下降 97

6.8 神经网络对相关性的学习 98

6.9 向上与向下的压力 99

6.10 边界情况:过拟合 101

6.11 边界情况:压力冲突 101

6.12 学习间接相关性 103

6.13 创建关联 104

6.14 堆叠神经网络:回顾 105

6.15 反向传播:远程错误归因 106

6.16 反向传播:为什么有效? 107

6.17 线性与非线性 107

6.18 为什么神经网络仍然不起作用 109

6.19 选择性相关的秘密 110

6.20 快速冲刺 111

6.21 你的第一个深度神经网络 111

6.22 反向传播的代码 112

6.23 反向传播的一次迭代 114

6.24 整合代码 116

6.25 为什么深度网络这么重要? 117

第7章 如何描绘神经网络:在脑海里,在白纸上 119

7.1 到了简化的时候了 119

7.2 关联抽象 120

7.3 旧的可视化方法过于复杂 121

7.4 简化版可视化 122

7.5 进一步简化 123

7.6 观察神经网络是如何进行预测的 124

7.7 用字母而不是图片来进行可视化 125

7.8 连接变量 126

7.9 信息整合 127

7.10 可视化工具的重要性 127

第8章 学习信号,忽略噪声:正则化和批处理介绍 129

8.1 用在MNIST上的三层网络 129

8.2 好吧,这很简单 131

8.3 记忆与泛化 132

8.4 神经网络中的过拟合 133

8.5 过拟合从何而来 134

8.6 最简单的正则化:提前停止 135

8.7 行业标准正则化:dropout 136

8.8 为什么dropout有效:整合是有效的 137

8.9 dropout的代码 137

8.10 在MNIST数据集上对dropout进行测试 139

8.11 批量梯度下降 140

8.12 本章小结 143

第9章 概率和非线性建模:激活函数 145

9.1 什么是激活函数? 145

9.2 标准隐藏层激活函数 148

9.3 标准输出层激活函数 149

9.4 核心问题:输入具有

相似性 151

9.5 计算softmax 152

9.6 激活函数使用说明 153

9.7 将增量与斜率相乘 156

9.8 将输出转换为斜率(导数) 157

9.9 升级MNIST网络 157

第10章 卷积神经网络概论:关于边与角的神经学习 161

10.1 在多个位置复用权重 161

10.2 卷积层 162

10.3 基于NumPy的简单实现 164

10.4 本章小结 167

第11章 能够理解自然语言的神经网络:国王-男人+女人=? 169

11.1 理解语言究竟是指什么? 170

11.2 自然语言处理(NLP) 170

11.3 监督NLP学习 171

11.4 IMDB电影评论数据集 172

11.5 在输入数据中提取单词相关性 173

11.6 对影评进行预测 174

11.7 引入嵌入层 175

11.8 解释输出 177

11.9 神经网络结构 178

11.10 单词嵌入表达的对比 180

11.11 神经元是什么意思? 181

11.12 完形填空 182

11.13 损失函数的意义 183

11.14 国王-男人+女人~=女王 186

11.15 单词类比 187

11.16 本章小结 188

第12章 像莎士比亚一样写作的神经网络:变长数据的递归层 189

12.1 任意长度的挑战 189

12.2 做比较真的重要吗? 190

12.3 平均词向量的神奇力量 191

12.4 信息是如何存储在这些向量嵌入中的? 192

12.5 神经网络是如何使用嵌入的? 193

12.6 词袋向量的局限 194

12.7 用单位向量求词嵌入之和 195

12.8 不改变任何东西的矩阵 196

12.9 学习转移矩阵 197

12.10 学习创建有用的句子向量 198

12.11 Python下的前向传播 199

12.12 如何反向传播? 200

12.13 让我们训练它! 201

12.14 进行设置 201

12.15 任意长度的前向传播 202

12.16 任意长度的反向传播 203

12.17 任意长度的权重更新 204

12.18 运行代码,并分析输出 205

12.19 本章小结 207

第13章 介绍自动优化:搭建深度学习框架 209

13.1 深度学习框架是什么? 209

13.2 张量介绍 210

13.3 自动梯度计算(autograd)介绍 211

13.4 快速检查 213

13.5 多次使用的张量 214

13.6 升级autograd以支持多次使用的张量 215

13.7 加法的反向传播如何工作? 217

13.8 增加取负值操作的支持 218

13.9 添加更多函数的支持 219

13.10 使用autograd训练神经网络 222

13.11 增加自动优化 224

13.12 添加神经元层类型的支持 225

13.13 包含神经元层的神经元层 226

13.14 损失函数层 227

13.15 如何学习一个框架 228

13.16 非线性层 228

13.17 嵌入层 230

13.18 将下标操作添加到

autograd 231

13.19 再看嵌入层 232

13.20 交叉熵层 233

13.21 递归神经网络层 235

13.22 本章小结 238

第14章 像莎士比亚一样写作:长短期记忆网络 239

14.1 字符语言建模 239

14.2 截断式反向传播的必要性 240

14.3 截断式反向传播 241

14.4 输出样例 244

14.5 梯度消失与梯度激增 245

14.6 RNN反向传播的小例子 246

14.7 长短期记忆(LSTM)元胞 247

14.8 关于LSTM门限的直观理解 248

14.9 长短期记忆层 249

14.10 升级字符语言模型 250

14.11 训练LSTM字符语言模型 251

14.12 调优LSTM字符语言模型 252

14.13 本章小结 253

第15章 在看不见的数据上做深度学习:联邦学习导论 255

15.1 深度学习的隐私问题 255

15.2 联邦学习 256

15.3 学习检测垃圾邮件 257

15.4 让我们把它联邦化 259

15.5 深入联邦学习 260

15.6 安全聚合 261

15.7 同态加密 262

15.8 同态加密联邦学习 263

15.9 本章小结 264

第16章 往哪里去:简要指引 265


作者介绍:

Andrew W. Trask是Digital Reasoning公司机器学习实验室的创始成员,该实验室致力于自然语言处理、图像识别和音频转录的深度学习研究。几个月内,Andrew和他的伙伴们就在情绪分类和词性标注方面发表了超过业界最佳方案的结果。

他训练了世界上最大的人工神经网络,拥有超过1600亿个参数,实验结果发表在ICML(International Conference on Machine Learning)上,还有一部分结果发表在Journal of Machine Learning(JML)上。他在Digital Reasoning公司担任文本处理和音频分析的产品经理,负责仿真认知计算平台的架构设计,深度学习是这一平台的核心能力。


出版社信息:

暂无出版社相关信息,正在全力查找中!


书籍摘录:

暂无相关书籍摘录,正在全力查找中!


在线阅读/听书/购买/PDF下载地址:

在线阅读地址:深度学习图解在线阅读

在线听书地址:深度学习图解在线收听

在线购买地址:深度学习图解在线购买


原文赏析:

for i in range(len(true)):

error[i] = (pred[i] - true[i]) ** 2

delta = pred[i] - true[i]


The structure trick

When a neural network needs to use the same idea in multiple places, endeavor to use the same weights in both places. This will make those weights more intelligent by giving them more samples to learn from, increasing generalization.


其它内容:

书籍介绍

《深度学习图解》指导你从最基础的每一行代码开始搭建深度学习网络!经验丰富的深度学习专家Andrew W. Trask以有趣的图解方式为你揭开深度学习的神秘面纱,使你可亲身体会训练神经网络的每个细节。只需要使用Python语言及其最基本的数学库NumPy,就可以训练出自己的神经网络,借助它观察并理解图像、将文字翻译成不同的语言,甚至像莎士比亚一样写作!当你完成这一切后,就为成为精通深度学习框架的专家做好了充分准备!

主要内容:

• 深度学习的基础科学原理

• 自行设计和训练神经网络

• 隐私保护的知识,包括联邦学习

• 帮助你继续深度学习之旅的建议


精彩短评:

  • 作者:未注销 发布时间:2021-10-07 10:55:40

    这翻得是个什么玩意

  • 作者:滴天 发布时间:2022-11-01 11:39:48

    迅速过了一遍,感觉有点绕

  • 作者:木家彤 发布时间:2020-03-05 16:07:40

    The English version is a very good book.

  • 作者:Athumani 发布时间:2020-08-31 23:32:19

    篱下百花与……后的柳暗花明!可谓伤痕处处,竟又硕果累累。初读简直像坐过山车——《机电局长的一天》《神圣的使命》澎湃高昂得近乎声嘶力竭,而穿插其间的《班主任》《伤痕》有了不同的调子,转过头直面内伤。《大墙下的红玉兰》依旧显得粗糙,但紧随其后便是《剪辑错了的故事》《爱,是不能忘记的》,悲欢离合,潸然泪下,不知不觉《人到中年》。一路纵深,1979与1982是两座高峰。《公开的情书》恐怕陷入了某种极端,《受戒》《那五》还有《哦,香雪》和《黑骏马》是要辟出不一样的路子了。读完《高山下的花环》要放一放才能接着翻开《美食家》——稚嫩与矫情仍不时冒头,伤不到坦诚的意境。上册收尾的《晚霞消失的时候》与下册压轴的《棋王》各自拍案惊艳:个体成长,时代,磨难,历史,文明……几重关联,仿佛重生后的豁然,真正见大气魄。

  • 作者:千年狐 发布时间:2020-06-05 15:54:41

    缺点:中文版翻译感太重了,我基本是看着中文,脑子里自动翻回英文,我怀疑一些段落是谷歌翻译翻的。比如168页的卷积层总结,说的简直不是人话。

    优点:如果你想从一砖一瓦开始搭建神经网络,或者用习惯了框架,想探究一下底层实现,本书是不错的选择。

    适不适合初学者?对于“深度学习”,适合,有利于夯实基础,提高工程能力。如果你要拿“深度学习”做项目,不适合,看完一篇高赞的深度学习科普,写一个手写数字识别,就去学习别的项目和函数接口吧。

  • 作者:XL 发布时间:2023-06-29 18:12:08

    相当简单的一本入门书,适合文科生。如果是理工科专业相关的人,不要买!不要买!


深度书评:

  • 面向文科生的一本书

    作者:XL 发布时间:2023-06-29 18:15:43

    理工科不要买。太简单了。太简单了。太简单了。

    书里面的例子可能也就是hello world水平。对聪明人来说可能有点质疑智商。

    但是也确实简单,我爸在家闲来无事都看懂了。

    一位,六十多岁的,退休了的,在政府打工一辈子干文书工作的,老人家。

    为了折腾点人工智能相关的热词股票,居然把这书看完了。

    然而我爸不会配置环境,把我抓过去解决了半天。我才看到这本书。

    怎么说,就是面对文科生。专业相关的都不要买。

  • 简直是辣鸡

    作者:张小凡_2010 发布时间:2022-06-28 19:27:05


书籍真实打分

  • 故事情节:5分

  • 人物塑造:3分

  • 主题深度:5分

  • 文字风格:4分

  • 语言运用:6分

  • 文笔流畅:4分

  • 思想传递:5分

  • 知识深度:5分

  • 知识广度:8分

  • 实用性:5分

  • 章节划分:9分

  • 结构布局:9分

  • 新颖与独特:7分

  • 情感共鸣:4分

  • 引人入胜:7分

  • 现实相关:7分

  • 沉浸感:9分

  • 事实准确性:6分

  • 文化贡献:7分


网站评分

  • 书籍多样性:3分

  • 书籍信息完全性:3分

  • 网站更新速度:9分

  • 使用便利性:4分

  • 书籍清晰度:9分

  • 书籍格式兼容性:5分

  • 是否包含广告:6分

  • 加载速度:9分

  • 安全性:4分

  • 稳定性:8分

  • 搜索功能:5分

  • 下载便捷性:4分


下载点评

  • pdf(126+)
  • 博大精深(398+)
  • 三星好评(275+)
  • 图书多(412+)
  • 少量广告(335+)
  • 目录完整(112+)
  • 简单(553+)
  • 服务好(426+)
  • 中评多(416+)
  • 差评(349+)
  • 内容齐全(664+)

下载评价

  • 网友 潘***丽: ( 2024-12-15 13:15:29 )

    这里能在线转化,直接选择一款就可以了,用他这个转很方便的

  • 网友 相***儿: ( 2025-01-08 11:23:14 )

    你要的这里都能找到哦!!!

  • 网友 冉***兮: ( 2024-12-12 03:12:55 )

    如果满分一百分,我愿意给你99分,剩下一分怕你骄傲

  • 网友 寇***音: ( 2024-12-10 02:33:44 )

    好,真的挺使用的!

  • 网友 冯***卉: ( 2024-12-27 01:31:40 )

    听说内置一千多万的书籍,不知道真假的

  • 网友 宫***玉: ( 2024-12-26 05:59:27 )

    我说完了。

  • 网友 曾***文: ( 2024-12-15 11:27:32 )

    五星好评哦

  • 网友 堵***洁: ( 2025-01-09 05:48:29 )

    好用,支持

  • 网友 国***舒: ( 2024-12-28 00:46:40 )

    中评,付点钱这里能找到就找到了,找不到别的地方也不一定能找到

  • 网友 谢***灵: ( 2024-12-20 04:49:08 )

    推荐,啥格式都有

  • 网友 通***蕊: ( 2024-12-15 12:53:50 )

    五颗星、五颗星,大赞还觉得不错!~~

  • 网友 蓬***之: ( 2024-12-22 14:38:23 )

    好棒good

  • 网友 融***华: ( 2025-01-05 17:30:21 )

    下载速度还可以

  • 网友 陈***秋: ( 2025-01-01 12:19:24 )

    不错,图文清晰,无错版,可以入手。

  • 网友 权***颜: ( 2025-01-01 07:32:41 )

    下载地址、格式选择、下载方式都还挺多的

  • 网友 居***南: ( 2024-12-31 00:02:13 )

    请问,能在线转换格式吗?


随机推荐