From 49075972b291690731938756e869e79d2defae75 Mon Sep 17 00:00:00 2001 From: Yalei Meng Date: Mon, 11 Mar 2019 14:08:45 +0800 Subject: [PATCH] =?UTF-8?q?=E4=BF=AE=E6=AD=A3=E9=94=99=E5=88=AB=E5=AD=97?= =?UTF-8?q?=EF=BC=8C=E4=BD=BF=E8=AF=AD=E5=8F=A5=E6=9B=B4=E9=80=9A=E9=A1=BA?= =?UTF-8?q?=E3=80=82?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- chapter3/3.2-mnist.ipynb | 12 ++++++------ 1 file changed, 6 insertions(+), 6 deletions(-) diff --git a/chapter3/3.2-mnist.ipynb b/chapter3/3.2-mnist.ipynb index 2d836c8a..657040aa 100644 --- a/chapter3/3.2-mnist.ipynb +++ b/chapter3/3.2-mnist.ipynb @@ -32,9 +32,9 @@ "# 3.2 MNIST数据集手写数字识别\n", "\n", "## 3.2.1 数据集介绍\n", - "MNIST 包括6万张28x28的训练样本,1万张测试样本,很多教程都会对它”下手”几乎成为一个 “典范”,可以说他就是计算机视觉里面的Hello World。所以我们这里也会使用MNIST来进行实战。\n", + "MNIST 包括6万张28x28的训练样本,1万张测试样本,很多教程都会对它”下手”几乎成为一个 “典范”,可以说它就是计算机视觉里面的Hello World。所以我们这里也会使用MNIST来进行实战。\n", "\n", - "我们在介绍卷积神经网络的时候说到过LeNet-5,LeNet-5之所以强大就是因为在当时的环境下将MNIST数据的识别率提高到了99%,这里我们也自己从头搭建一个卷积神经网络,也达到99%的准确率" + "前面在介绍卷积神经网络的时候说到过LeNet-5,LeNet-5之所以强大就是因为在当时的环境下将MNIST数据的识别率提高到了99%,这里我们也自己从头搭建一个卷积神经网络,也达到99%的准确率" ] }, { @@ -121,7 +121,7 @@ "source": [ "下面我们定义一个网络,网络包含两个卷积层,conv1和conv2,然后紧接着两个线性层作为输出,最后输出10个维度,这10个维度我们作为0-9的标识来确定识别出的是那个数字\n", "\n", - "在这里建议大家将每一层的输入和输出都显作为注释标注出来,这样后面阅读代码的会方便很多" + "在这里建议大家将每一层的输入和输出维度都作为注释标注出来,这样后面阅读代码的会方便很多" ] }, { @@ -235,7 +235,7 @@ "cell_type": "markdown", "metadata": {}, "source": [ - "下面开始训练,封装起来的好处这里就体现出来了,只要谢两行就可以了" + "下面开始训练,这里就体现出封装起来的好处了,只要写两行就可以了" ] }, { @@ -389,9 +389,9 @@ "source": [ "如果你的模型连MNIST都搞不定,那么你的模型没有任何的价值\n", "\n", - "如果你的模型搞定了MNIST,那么你的模型也可能没有任何的价值\n", + "即使你的模型搞定了MNIST,你的模型也可能没有任何的价值\n", "\n", - "MNIST是一个很简单的数据集,但是因为他的局限性只能作为研究来使用,对于实际应用中带来的价值非常有限,但是通过这个例子,我们可以完全了解一个实际项目的工作流程\n", + "MNIST是一个很简单的数据集,由于它的局限性只能作为研究用途,对实际应用带来的价值非常有限。但是通过这个例子,我们可以完全了解一个实际项目的工作流程\n", "\n", "我们找到数据集,对数据做预处理,定义我们的模型,调整超参数,测试训练,再通过训练结果对超参数进行调整或者对模型进行调整。\n", "\n",