Skip to content

Commit

Permalink
dropout部分补充
Browse files Browse the repository at this point in the history
  • Loading branch information
shataowei committed Sep 6, 2020
1 parent a5f9dc2 commit d00bbe7
Show file tree
Hide file tree
Showing 2 changed files with 13 additions and 15 deletions.
12 changes: 5 additions & 7 deletions .idea/workspace.xml

Some generated files are not rendered by default. Learn more about how customized files appear on GitHub.

16 changes: 8 additions & 8 deletions 深度学习/dropout.md
Original file line number Diff line number Diff line change
@@ -1,5 +1,5 @@
# dropout如何作用的?
以p的概率随机的丢掉一些神经元,使得该条链路上的数据不参与loss计算及反向传播**剩余的元素需要除以1-p,保证dropout前后的代价一致**
以p的概率随机的丢掉一些神经元,使得该条链路上的数据不参与loss计算及**反向传播****剩余的元素需要除以1-p,保证dropout前后的代价一致**

# L1为什么在深度学习中不常用?
L1和L2正则化,在训练的时候限制权值变大;都是针对模型中参数过大的问题引入惩罚项,依据是奥克姆剃刀原理。
Expand All @@ -12,7 +12,13 @@ L1和L2正则化,在训练的时候限制权值变大;都是针对模型中

# 为什么有效?

*如果又被闻到这个问题,有两种可能第一是你非常优秀,面试官想看你的知识边界;另一种是面试官不想要你,想找个难一点的题目好写面试反馈*
- dropout使得网络不至于过于复杂,一定避免了减少了单次的参数量降低过拟合的风险,提升了训练速度
- 每次dropout相当于生成了一个参数共享的子网络,子网络的个数是指数级别的相当于训练了无数个子模型
- 每次dropout相当于生成了一个参数共享的子网络,子网络带来的反向传递的结果可以作用在剩余网络上,可被记忆
- dropout之后,可以通过修改input不改网络得到同样的计算结果,换句话说就是增加样本
- 在非线性问题上,**通过学习若干个局部空间的特征会比在全局上寻找学习一个整个空间的特征要好**,而通过dropout构造样本的稀疏性,来增加特征的区分度。

*如果有被问到这个问题,有两种可能第一是你非常优秀,面试官想看你的知识边界;另一种是面试官不想要你,想找个难一点的题目好写面试反馈*

这个地方我只能说自己的理解,这边有几篇论文大家可以去好好看看,有一些自己的体会,因为我自己也不是100%理解,手动狗头。

Expand All @@ -21,9 +27,3 @@ L1和L2正则化,在训练的时候限制权值变大;都是针对模型中
- An empirical analysis of dropout in piecewise linear networks
- Improving neural networks by preventing co-adaptation of feature detectors

有效的点:
1 dropout使得网络不至于过于复杂,一定避免了减少了单次的参数量降低过拟合的风险,提升了训练速度
2 每次dropout相当于生成了一个参数共享的子网络,子网络的个数是指数级别的相当于训练了无数个子模型
3 每次dropout相当于生成了一个参数共享的子网络,子网络带来的反向传递的结果可以作用在剩余网络上,可被记忆
4 dropout之后,可以通过修改input不改网络得到同样的计算结果,换句话说就是增加样本
5 在非线性问题上,**通过学习若干个局部空间的特征会比在全局上寻找学习一个整个空间的特征要好**,而通过dropout构造样本的稀疏性,来增加特征的区分度。

0 comments on commit d00bbe7

Please sign in to comment.