diff --git a/chapter2/2.1.3-pytorch-basics-nerual-network.ipynb b/chapter2/2.1.3-pytorch-basics-nerual-network.ipynb index 4450b59e..d353403a 100644 --- a/chapter2/2.1.3-pytorch-basics-nerual-network.ipynb +++ b/chapter2/2.1.3-pytorch-basics-nerual-network.ipynb @@ -97,7 +97,7 @@ " def forward(self, x): \n", " print(x.size()) # 结果:[1, 1, 32, 32]\n", " # 卷积 -> 激活 -> 池化 \n", - " x = self.conv1(x) #根据卷积的尺寸计算公式,计算结果是30,具体计算公式后面第二张第四节 卷积神经网络 有详细介绍。\n", + " x = self.conv1(x) #根据卷积的尺寸计算公式,计算结果是30,具体计算公式后面第二章第四节 卷积神经网络 有详细介绍。\n", " x = F.relu(x)\n", " print(x.size()) # 结果:[1, 6, 30, 30]\n", " x = F.max_pool2d(x, (2, 2)) #我们使用池化层,计算结果是15\n", @@ -299,7 +299,7 @@ "source": [ "**注意**:torch.nn只支持mini-batches,不支持一次只输入一个样本,即一次必须是一个batch。\n", "\n", - "也就是说,就算我们输入一个样本,也会对样本进行分批,所以,所有的输入都会增加一个维度,我们对比下刚才的input,nn中定义为3维,但是我们人工创建时多增加了一个维度,变为了4维,最前面的1即为batch-size" + "也就是说,就算我们输入一个样本,也会对样本进行分批,所以,所有的输入都会增加一个维度,我们对比下刚才的input,nn中定义为3维,但是我们人工创建时多增加了一个维度,变为了4维,最前面的1即为batch-size" ] }, { @@ -388,7 +388,7 @@ "source": [ "这样,神经网络的数据的一个完整的传播就已经通过PyTorch实现了,下面一章将介绍PyTorch提供的数据加载和处理工具,使用这些工具可以方便的处理所需要的数据。\n", "\n", - "看完这节,大家可能对神经网络模型里面的一些参数的计算方式还有疑惑,这部分会在第二张第四节 卷积神经网络 有详细介绍,并且在第三章 第二节 MNIST数据集手写数字识别 的实践代码中有详细的注释说明。" + "看完这节,大家可能对神经网络模型里面的一些参数的计算方式还有疑惑,这部分会在第二章第四节 卷积神经网络 有详细介绍,并且在第三章 第二节 MNIST数据集手写数字识别 的实践代码中有详细的注释说明。" ] }, {