Skip to content

Commit

Permalink
Browse files Browse the repository at this point in the history
…chinese

Former-commit-id: ea5f21ef3b057aa37638d7884ace7a279f65aaa1
  • Loading branch information
liber145 committed Jan 12, 2017
2 parents 45a5617 + e1c2cff commit 0850be0
Show file tree
Hide file tree
Showing 13 changed files with 238 additions and 199 deletions.
2 changes: 1 addition & 1 deletion Chapter1/introduction.tex
Original file line number Diff line number Diff line change
Expand Up @@ -24,7 +24,7 @@ \chapter{前言}
许多\glssymbol{AI}的早期成功发生在相对干净且形式的环境中, 计算机不需要具备很多关于世界的知识。
例如,IBM的深蓝(Deep Blue)国际象棋系统在1997年击败了世界冠军\ENNAME{Garry Kasparov}\citep{Hsu2002}。
当然国际象棋是一个非常简单的领域,仅含有64个位置并只能以严格限制的方式移动32个棋子。
设计一种成功的国际象棋策略是巨大的成就,但向计算机描述棋子及其允许的移动并不是挑战的困难所在
设计一种成功的国际象棋策略是巨大的成就,但向计算机描述棋子及其允许的走法并不是挑战的困难所在
国际象棋完全可以由一个非常简短的、完全形式化的规则列表描述,并可以轻松由程序员提前提供。

讽刺的是,抽象和形式的任务对人类而言是最困难的脑力任务之一,对计算机而言却属于最容易的。
Expand Down
84 changes: 56 additions & 28 deletions README.md
Original file line number Diff line number Diff line change
@@ -1,17 +1,10 @@
# Deep Learning 中文翻译

经过3个多月,我们终于完成了翻译草稿。当然这是草稿中的草稿,我们会不断改进,就像梯度下降一样,要迭代好几轮才能找到一个不错的解。

目前的版本是直译版,尽可能地保留原书[Deep Learning](http://www.deeplearningbook.org/)中的每一个字。
公开1个多月,在众多网友的帮助下,草稿中的草稿慢慢变成了草稿。原本打算我们翻译人员先相互校对一遍再让网友校对,但由于时间不足,于是更改计划,打算一起校对。

> Inventors have long dreamed of creating machines that think. This desire dates back to at least the time of ancient Greece.
> 自古以来,创造者就梦想着创造能思考的机器。这个愿望至少可以追溯到古希腊的时期
[直译版](https://github.com/exacity/deeplearningbook-chinese/tree/literal)逐渐向意译版过渡,我们希望尽可能地保留原书[Deep Learning](http://www.deeplearningbook.org/)中的意思并保留原书的语句。
然而我们水平有限,哈姆雷特成千上万,我们无法消除众多读者的方差。我们需要大家的建议和帮助,一起减小翻译的偏差

之后我们可能会翻译成
> 远在古希腊时期,创造者就梦想着创造能思考的机器。
语句流畅度的提高必然伴随精度下降(我们水平有限)。因此我们需要ensemble,需要大家的建议。
对应的翻译者:
- 第1、4、7、10、14、20章及第12.4、12.5节由 @swordyork 负责
- 第2、5、8、11、15、18章由 @liber145 负责
Expand All @@ -23,33 +16,57 @@
面向的读者
--------------------

请直接下载[PDF](https://github.com/exacity/deeplearningbook-chinese/releases/download/v0.3-alpha/dlbook_cn_v0.3-alpha.pdf)阅读。
这一版读起来肯定费劲,我们建议英文好的或者研究者直接读原版。
这一版面向的读者是英语不好,急于想入门深度学习的同学。或者希望帮忙校对的各路大哥也可以读读,只要不嫌弃。
请直接下载[PDF](https://github.com/exacity/deeplearningbook-chinese/releases/download/v0.4-alpha/dlbook_cn_v0.4-alpha.pdf)阅读。
虽然这一版准确性有所提高,但我们仍然建议英文好的同学或研究者直接阅读[原版](http://www.deeplearningbook.org/)



注意
-----------
校对认领
--------------------

- 各种问题或者建议可以提issue,建议使用中文。
- 由于版权问题,我们不能将图片和bib上传,请见谅。
- Due to copyright issues, we would not upload figures and the bib file.
- 可用于学习研究目的,不得用于任何商业行为。谢谢!
- 大约每周release一个版本,[PDF](https://github.com/exacity/deeplearningbook-chinese/releases/download/v0.3-alpha/dlbook_cn_v0.3-alpha.pdf)文件每天更新。
- 大家不要watch啊,邮箱可能会炸。
- **先不要打印,这一版不值得打印,浪费钱,** 给我们一个月时间,我们给出我们自己满意的版本。打印版仅供学习参考和找茬纠错,正式出版后,希望大家多多支持纸质正版书籍。
我们划分4个类别的校对人员。每个类别需要很多人。
- 负责人也就是对应的翻译者。
- 我们需要有人简单地阅读,最好是刚入门或者想入门的同学。有什么翻得不明白的地方可以直接指出,不用给出意见。或者可以对语句不通顺的地方提出修改意见。每章至少3人。
- 我们也需要有人进行中英对比,最好能排除少翻错翻的情况。最好是时间充足、能中英对应阅读、细心的同学。每章至少2人。
- 相关方向的校对者则需要纠正译者的错误理解。大家不要谦虚,阅读过相关论文的同学可以作为相关方向的人士。每章至少1人。

我们会在纸质版正式出版的时候,在书中致谢,正式感谢各位作出贡献的同学!

我们采用网上批注的形式(如果觉得不方便,可以在pdf中批注,然后发给我们)。Latex转成markdown后,图片和某些公式会错误,排版也会出问题。希望大家谅解。
具体批注方式:
1. 点开下表中对应的章节
2. 选取网页中的词语或语句,跳出来Annotate,点击就行了。需要注册一个帐号,注意批注得公开我们才能看到。

| 章节 | 负责人 | 简单阅读 | 中英对比 | 相关方向 |
| ------------ | ------------- | ---------- | ------------ | --------- |
| [第一章 前言](https://via.hypothes.is/https://exacity.github.io/deeplearningbook-chinese/Chapter1_introduction/) | @swordyork | liu chang,@SiriusXDJ | @linzhp | |
| [第二章 线性代数](https://via.hypothes.is/https://exacity.github.io/deeplearningbook-chinese/Chapter2_linear_algebra/) | @liber145 | @SiriusXDJ | | |
| [第三章 概率与信息论](https://via.hypothes.is/https://exacity.github.io/deeplearningbook-chinese/Chapter3_probability_and_information_theory/) | @KevinLee1110 | @SiriusXDJ | | |
| [第四章 数值计算](https://via.hypothes.is/https://exacity.github.io/deeplearningbook-chinese/Chapter4_numerical_computation/) | @swordyork | | @quasi-jing,@hengqujushi | @hengqujushi |
| [第五章 机器学习基础](https://via.hypothes.is/https://exacity.github.io/deeplearningbook-chinese/Chapter5_machine_learning_basics/) | @liber145 | | | |
| [第六章 深度前馈网络](https://via.hypothes.is/https://exacity.github.io/deeplearningbook-chinese/Chapter6_deep_feedforward_networks/) | @KevinLee1110 | | | |
| [第七章 深度学习的正则化](https://via.hypothes.is/https://exacity.github.io/deeplearningbook-chinese/Chapter7_regularization/) | @swordyork | | | |
| [第八章 深度模型中的优化](https://via.hypothes.is/https://exacity.github.io/deeplearningbook-chinese/Chapter8_optimization_for_training_deep_models/) | @liber145 | | | |
| [第九章 卷积神经网络](https://via.hypothes.is/https://exacity.github.io/deeplearningbook-chinese/Chapter9_convolutional_networks/) | @KevinLee1110 | @zhaoyu611 | @zhiding | |
| [第十章 序列建模:循环和递归网络](https://via.hypothes.is/https://exacity.github.io/deeplearningbook-chinese/Chapter10_sequence_modeling_rnn/) | @swordyork | liu chang | @zhaoyu611 | |
| [第十一章 实用方法](https://via.hypothes.is/https://exacity.github.io/deeplearningbook-chinese/Chapter11_practical_methodology/) | @liber145 | | | |
| [第十二章 应用](https://via.hypothes.is/https://exacity.github.io/deeplearningbook-chinese/Chapter12_applications/) | @swordyork,@futianfan | | | |
| [第十三章 线性因子模型](https://via.hypothes.is/https://exacity.github.io/deeplearningbook-chinese/Chapter13_linear_factor_models/) | @futianfan | | | |
| [第十四章 自动编码器](https://via.hypothes.is/https://exacity.github.io/deeplearningbook-chinese/Chapter14_autoencoders/) | @swordyork | @zizhan | @Seaball | |
| [第十五章 表示学习](https://via.hypothes.is/https://exacity.github.io/deeplearningbook-chinese/Chapter15_representation_learning/) | @liber145 | | | |
| [第十六章 深度学习中的结构化概率模型](https://via.hypothes.is/https://exacity.github.io/deeplearningbook-chinese/Chapter16_structured_probabilistic_modelling/) | @futianfan | | | |
| [第十七章 蒙特卡罗方法](https://via.hypothes.is/https://exacity.github.io/deeplearningbook-chinese/Chapter17_monte_carlo_methods/) | @futianfan | | | |
| [第十八章 面对配分函数](https://via.hypothes.is/https://exacity.github.io/deeplearningbook-chinese/Chapter18_confronting_the_partition_function/) | @liber145 | | | |
| [第十九章 近似推断](https://via.hypothes.is/https://exacity.github.io/deeplearningbook-chinese/Chapter19_approximate_inference/) | @futianfan | | | |
| [第二十章 深度生成模型](https://via.hypothes.is/https://exacity.github.io/deeplearningbook-chinese/Chapter20_deep_generative_models/) | @swordyork | | @endymecy | @endymecy |



TODO
---------

1. ~~翻译图片描述,表格和算法~~,12月28日完成。
2. ~~链接补全~~,12月14日已ok,大家可以帮忙检查文献引用是否正确,图片、章节和公式引用是否正确。
3. 语句通顺
4. ~~第20章正在校对,这章比较难估计还需2周~~,12月14日完成校对

1. 语句通顺
2. 排版,见issue [#35](https://github.com/exacity/deeplearningbook-chinese/issues/35)

实在有问题,请发邮件至`echo c3dvcmQueW9ya0BnbWFpbC5jb20K | base64 -d`

Expand All @@ -63,9 +80,20 @@ TODO
@tttwwy @tankeco @fairmiracle @GageGao @huangpingchun @MaHongP @acgtyrant @yanhuibin315 @Buttonwood @titicacafz
@weijy026a @RuiZhang1993 @zymiboxpay @xingkongliang @oisc @tielei @yuduowu @Qingmu @HC-2016 @xiaomingabc
@bengordai @Bojian @JoyFYan @minoriwww @khty2000 @gump88 @zdx3578 @PassStory @imwebson @wlbksy @roachsinai @Elvinczp
@endymecy name:YUE-DaJiong
@endymecy name:YUE-DaJiong @9578577 @linzhp


注意
-----------

- 各种问题或者建议可以提issue,建议使用中文。
- 由于版权问题,我们不能将图片和bib上传,请见谅。
- Due to copyright issues, we would not upload figures and the bib file.
- 可用于学习研究目的,不得用于任何商业行为。谢谢!
- 大约每周release一个版本,[PDF](https://github.com/exacity/deeplearningbook-chinese/releases/download/v0.4-alpha/dlbook_cn_v0.4-alpha.pdf)文件每天更新。
- 大家不要watch啊,邮箱可能会炸。
- **先不要打印,这一版不值得打印,浪费钱** 打印版仅供学习参考和找茬纠错,正式出版后,希望大家多多支持纸质正版书籍。



笔记
Expand Down
2 changes: 1 addition & 1 deletion docs/_posts/2016-12-01-Chapter1_introduction.md
Original file line number Diff line number Diff line change
Expand Up @@ -25,7 +25,7 @@ share: false
许多AI的早期成功发生在相对干净且形式的环境中, 计算机不需要具备很多关于世界的知识。
例如,IBM的深蓝(Deep Blue)国际象棋系统在1997年击败了世界冠军Garry Kasparov{cite?}。
当然国际象棋是一个非常简单的领域,仅含有64个位置并只能以严格限制的方式移动32个棋子。
设计一种成功的国际象棋策略是巨大的成就,但向计算机描述棋子及其允许的移动并不是挑战的困难所在
设计一种成功的国际象棋策略是巨大的成就,但向计算机描述棋子及其允许的走法并不是挑战的困难所在
国际象棋完全可以由一个非常简短的、完全形式化的规则列表描述,并可以轻松由程序员提前提供。

讽刺的是,抽象和形式的任务对人类而言是最困难的脑力任务之一,对计算机而言却属于最容易的。
Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -344,23 +344,23 @@ P(\RSx = x) = \phi^x (1-\phi)^{1-x}\\
\end{gather}


## multinoulli分布
## Multinoulli分布


multinoulli分布或者分类分布是指在具有$k$个不同状态的单个离散型随机变量上的分布,$k$是有限的。
Multinoulli分布或者分类分布是指在具有$k$个不同状态的单个离散型随机变量上的分布,$k$是有限的。
\footnote{"multinoulli"这个术语是最近被Gustavo Lacerdo发明、被{MurphyBook2012}推广的。
multinoulli分布是多项分布的一个特例
多项分布是$\{0,\ldots, n\}^k$中的向量的分布,用于表示当对multinoulli分布采样$n$次时$k$个类中的每一个被访问的次数。
很多文章使用"多项分布"而实际上说的是multinoulli分布,但是他们并没有说是对$n=1$的情况,这点需要注意。}
multinoulli分布的参数是向量$\bm{p} \in [0, 1]^{k-1}$,每一个分量$p_i$表示第$i$个状态的概率。
Multinoulli分布是多项分布的一个特例
多项分布是$\{0,\ldots, n\}^k$中的向量的分布,用于表示当对Multinoulli分布采样$n$次时$k$个类中的每一个被访问的次数。
很多文章使用"多项分布"而实际上说的是Multinoulli分布,但是他们并没有说是对$n=1$的情况,这点需要注意。}
Multinoulli分布的参数是向量$\bm{p} \in [0, 1]^{k-1}$,每一个分量$p_i$表示第$i$个状态的概率。
最后的第$k$个状态的概率通过$1-\bm{1}^\top \bm{p}$给出。
注意到我们必须限制$\bm{1}^\top\bm{p}\le 1$。
multinoulli分布经常用来表示对象分类的分布,所以我们很少假设状态1具有数值1之类的。
因此,我们通常不需要去计算multinoulli分布的随机变量的期望和方差
Multinoulli分布经常用来表示对象分类的分布,所以我们很少假设状态1具有数值1之类的。
因此,我们通常不需要去计算Multinoulli分布的随机变量的期望和方差

<!-- % -- 60 -- -->

Bernoulli分布和multinoulli分布足够用来描述在它们领域内的任意分布
Bernoulli分布和Multinoulli分布足够用来描述在它们领域内的任意分布
它们能够描述这些分布,不是因为它们特别强大,而是因为它们的领域很简单;
它们可以对那些,能够将所有的状态进行标号的离散型随机变量,进行建模。
当处理的是连续型随机变量时,会有不可数无限多的状态,所以任何通过少量参数描述的概率分布都必须在分布上采用严格的极限。
Expand Down Expand Up @@ -469,7 +469,7 @@ Dirac分布经常作为经验分布的一个组成部分出现:
\end{equation}
经验分布将概率密度$\frac{1}{m}$赋给$m$个点$\bm{x}^{(1)}, \ldots, \bm{x}^{(m)}$中的每一个,这些点是给定的数据集或者采样的集合。
Dirac delta函数只对定义连续型随机变量的经验分布是必要的。
对于离散型随机变量,情况更加简单:经验分布可以被定义成一个multinoulli分布,对于每一个可能的输入,其概率可以简单地设为在训练集上那个输入值的经验频率。
对于离散型随机变量,情况更加简单:经验分布可以被定义成一个Multinoulli分布,对于每一个可能的输入,其概率可以简单地设为在训练集上那个输入值的经验频率。

当我们在训练集上训练模型时,我们可以认为从这个训练集上得到的经验分布指明了我们采样来源的分布。
关于经验分布另外一种重要的观点是,它是训练数据的似然最大的那个概率密度函数(见\?节)。
Expand All @@ -481,11 +481,11 @@ Dirac delta函数只对定义连续型随机变量的经验分布是必要的。
通过组合一些简单的概率分布来定义新的概率分布也是很常见的。
一种通用的组合方法是构造混合分布。
混合分布由一些组件(component)分布构成。
每次实验,样本是由哪个组件分布产生的取决于从一个multinoulli分布中采样的结果
每次实验,样本是由哪个组件分布产生的取决于从一个Multinoulli分布中采样的结果
\begin{equation}
P(\RSx) = \sum_i P(\RSc = i) P(\RSx \mid \RSc = i),
\end{equation}
这里$P(\RSc)$是对各组件的一个multinoulli分布
这里$P(\RSc)$是对各组件的一个Multinoulli分布

我们已经看过一个混合分布的例子了:实值变量的经验分布对于每一个训练实例来说,就是以Dirac分布为组件的混合分布。

Expand Down
2 changes: 1 addition & 1 deletion docs/_posts/2016-12-04-Chapter4_numerical_computation.md
Original file line number Diff line number Diff line change
Expand Up @@ -29,7 +29,7 @@ share: false
进一步的运算通常导致这些无限值变为非数字。

必须对上溢和下溢进行数值稳定的一个例子是softmax函数。
softmax函数经常用于预测与multinoulli分布相关联的概率,定义为
softmax函数经常用于预测与Multinoulli分布相关联的概率,定义为
\begin{align}
\text{softmax}(\Vx)_i = \frac{\exp(\Sx_i)}{\sum_{j=1}^n \exp(\Sx_j)} .
\end{align}
Expand Down
Loading

0 comments on commit 0850be0

Please sign in to comment.