Skip to content

Commit

Permalink
Исправление опечаток
Browse files Browse the repository at this point in the history
  • Loading branch information
vbystricky committed Jan 8, 2024
1 parent 34107c2 commit 8112a74
Show file tree
Hide file tree
Showing 2 changed files with 3 additions and 3 deletions.
2 changes: 1 addition & 1 deletion _includes/footer.html
Original file line number Diff line number Diff line change
Expand Up @@ -24,7 +24,7 @@
</li>
</ul>
<ul class="footer-list float-right">
<li>&copy; 2017-2022 {{ site.author }}</li>
<li>&copy; 2017-2023 {{ site.author }}</li>
</ul>
</footer>
</div>
Expand Down
4 changes: 2 additions & 2 deletions _posts/2020-05-31-batch_normalization.md
Original file line number Diff line number Diff line change
Expand Up @@ -19,7 +19,7 @@ use_math: true
<!--more-->

И вот тут начинается самое интересное. Ответ на первый вопрос "что это такое?" в целом не вызывает особой сложности (если подойти к делу формально
и определить какие же преобразования добавляются в сетку), а вот про "откуда проистекает польза?" идут жаркие споры. Объяснение, авторов методики
и определить какие же преобразования добавляются в сетку), а вот про "откуда проистекает польза?" идут жаркие споры. Объяснение авторов методики
подвергается серьёзной критике.

Мне понравилось как это сформулировано в [3]:
Expand Down Expand Up @@ -249,7 +249,7 @@ dropout слои - это ускоряет процесс тренировки

### Литература

1. *S. Ioffe, Ch. Szegedy, “Batch Normali;zation: Accelerating Deep Network Training by Reducing Internal Covariate Shift”,
1. *S. Ioffe, Ch. Szegedy, “Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift”,
[arXiv:1502.03167v3](https://arxiv.org/abs/1502.03167), 2015*

2. *H. Shimodaira, "Improving predictive inference under covariate shift by weighting the log-likelihood function.",
Expand Down

0 comments on commit 8112a74

Please sign in to comment.