diff --git a/chapter1/2_autograd_tutorial.ipynb b/chapter1/2_autograd_tutorial.ipynb index e1d72d69..21924ea4 100644 --- a/chapter1/2_autograd_tutorial.ipynb +++ b/chapter1/2_autograd_tutorial.ipynb @@ -32,7 +32,7 @@ "``torch.Tensor``是这个包的核心类.如果设置\n", "``.requires_grad`` 为 ``True``, 那么将会追踪多有对于该张量的操作. \n", "当完成计算后通过调用 ``.backward()``会自动计算所有的梯度.\n", - "这个张量的所有提多将会自动积累到 ``.grad`` 属性.\n", + "这个张量的所有梯度将会自动积累到 ``.grad`` 属性.\n", "\n", "要阻止张量跟踪历史记录,可以调用``.detach()``方法将其与计算历史记录分离,并禁止跟踪它将来的计算记录。\n", "\n", diff --git a/chapter1/5_data_parallel_tutorial.ipynb b/chapter1/5_data_parallel_tutorial.ipynb index 1fd07b81..55a763fc 100644 --- a/chapter1/5_data_parallel_tutorial.ipynb +++ b/chapter1/5_data_parallel_tutorial.ipynb @@ -33,7 +33,7 @@ "\n", " mytensor = my_tensor.to(device)\n", "```\n", - "请注意,只调用``my_tensor.to(device)``并没有复制张量到GPU上,二十返回了一个copy。所以你需要把它赋值给一个新的张量并在GPU上使用这个张量。\n", + "请注意,只调用``my_tensor.to(device)``并没有复制张量到GPU上,而是返回了一个copy。所以你需要把它赋值给一个新的张量并在GPU上使用这个张量。\n", "\n", "在多GPU上执行前向和反向传播是自然而然的事。\n", "但是PyTorch默认将只是用一个GPU。\n",