Skip to content

Commit

Permalink
修改错别字
Browse files Browse the repository at this point in the history
  • Loading branch information
deep-course committed Apr 2, 2019
1 parent 1820ef5 commit 8148f05
Showing 1 changed file with 1 addition and 1 deletion.
2 changes: 1 addition & 1 deletion chapter4/4.5-multiply-gpu-parallel-training.ipynb
Original file line number Diff line number Diff line change
Expand Up @@ -534,7 +534,7 @@
"source": [
"在运行时我们也不能简单的使用`python 文件名`来执行了,我们这里需要使用PyTorch中为我们准备好的torch.distributed.launch运行脚本。它能自动进行环境变量的设置,并使用正确的node_rank参数调用脚本。\n",
"\n",
"这里我们要准备以台机器作为master,所有的机器都要求能对它进行访问。因此,它需要拥有一个可以访问的IP地址(示例中为:196.168.100.100)以及一个开放的端口(示例中为:6666)。我们将使用torch.distributed.launch在第一台机器上运行脚本:\n",
"这里我们要准备一台机器作为master,所有的机器都要求能对它进行访问。因此,它需要拥有一个可以访问的IP地址(示例中为:196.168.100.100)以及一个开放的端口(示例中为:6666)。我们将使用torch.distributed.launch在第一台机器上运行脚本:\n",
"```bash\n",
"python -m torch.distributed.launch --nproc_per_node=2 --nnodes=2 --node_rank=0 --master_addr=\"192.168.100.100\" --master_port=6666 文件名 (--arg1 --arg2 等其他参数)\n",
"```\n",
Expand Down

0 comments on commit 8148f05

Please sign in to comment.