From 8148f055be1b6dd63e49f7cc2d7b75e8b61c2d00 Mon Sep 17 00:00:00 2001 From: zergtant Date: Tue, 2 Apr 2019 23:08:13 +0800 Subject: [PATCH] =?UTF-8?q?=E4=BF=AE=E6=94=B9=E9=94=99=E5=88=AB=E5=AD=97?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- chapter4/4.5-multiply-gpu-parallel-training.ipynb | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/chapter4/4.5-multiply-gpu-parallel-training.ipynb b/chapter4/4.5-multiply-gpu-parallel-training.ipynb index aa640092..6732111b 100644 --- a/chapter4/4.5-multiply-gpu-parallel-training.ipynb +++ b/chapter4/4.5-multiply-gpu-parallel-training.ipynb @@ -534,7 +534,7 @@ "source": [ "在运行时我们也不能简单的使用`python 文件名`来执行了,我们这里需要使用PyTorch中为我们准备好的torch.distributed.launch运行脚本。它能自动进行环境变量的设置,并使用正确的node_rank参数调用脚本。\n", "\n", - "这里我们要准备以台机器作为master,所有的机器都要求能对它进行访问。因此,它需要拥有一个可以访问的IP地址(示例中为:196.168.100.100)以及一个开放的端口(示例中为:6666)。我们将使用torch.distributed.launch在第一台机器上运行脚本:\n", + "这里我们要准备一台机器作为master,所有的机器都要求能对它进行访问。因此,它需要拥有一个可以访问的IP地址(示例中为:196.168.100.100)以及一个开放的端口(示例中为:6666)。我们将使用torch.distributed.launch在第一台机器上运行脚本:\n", "```bash\n", "python -m torch.distributed.launch --nproc_per_node=2 --nnodes=2 --node_rank=0 --master_addr=\"192.168.100.100\" --master_port=6666 文件名 (--arg1 --arg2 等其他参数)\n", "```\n",