From eed7e1d069499b27a01e423db0c1f701737902f0 Mon Sep 17 00:00:00 2001 From: Yan Gao Date: Wed, 7 Feb 2024 17:32:23 +0000 Subject: [PATCH] Translated using Weblate (Chinese (Simplified)) Currently translated at 95.0% (2019 of 2125 strings) Translation: Flower Docs/Framework Translate-URL: https://hosted.weblate.org/projects/flower-docs/framework/zh_Hans/ --- .../zh_Hans/LC_MESSAGES/framework-docs.po | 171 +++++++++--------- 1 file changed, 86 insertions(+), 85 deletions(-) diff --git a/doc/locales/zh_Hans/LC_MESSAGES/framework-docs.po b/doc/locales/zh_Hans/LC_MESSAGES/framework-docs.po index 7ae16d2e01cd..515fd993b748 100644 --- a/doc/locales/zh_Hans/LC_MESSAGES/framework-docs.po +++ b/doc/locales/zh_Hans/LC_MESSAGES/framework-docs.po @@ -8,7 +8,7 @@ msgstr "" "Project-Id-Version: Flower main\n" "Report-Msgid-Bugs-To: \n" "POT-Creation-Date: 2023-11-23 18:31+0100\n" -"PO-Revision-Date: 2023-11-25 19:00+0000\n" +"PO-Revision-Date: 2024-02-08 18:01+0000\n" "Last-Translator: Yan Gao \n" "Language-Team: Chinese (Simplified) \n" @@ -17,7 +17,7 @@ msgstr "" "Content-Type: text/plain; charset=utf-8\n" "Content-Transfer-Encoding: 8bit\n" "Plural-Forms: nplurals=1; plural=0;\n" -"X-Generator: Weblate 5.2.1-rc\n" +"X-Generator: Weblate 5.4-dev\n" "Generated-By: Babel 2.13.1\n" #: ../../source/contributor-explanation-architecture.rst:2 @@ -2607,7 +2607,7 @@ msgid "" msgstr "" "让我们创建一个名为:code:`mxnet_mnist.py`的新文件,其中包含传统(集中式)" "MNIST 训练所需的所有组件。首先,需要导入 MXNet 包 :code:`mxnet`。您可以看到," -"我们尚未导入用于联合学习的 :code:`flwr` 包。这将在稍后完成。" +"我们尚未导入用于联合学习的 :code:`flwr` 包,这将在稍后完成。" #: ../../source/example-mxnet-walk-through.rst:42 msgid "" @@ -2628,18 +2628,16 @@ msgid "" "We now need to define the training (function :code:`train()`) which loops " "over the training set and measures the loss for each batch of training " "examples." -msgstr "" -"现在,我们需要定义训练(函数 :code:`train()`),该函数在训练集上循环,并测量" -"每批训练示例的损失。" +msgstr "现在,我们需要定义训练函数( " +":code:`train()`),该函数在训练集上循环训练,并计算每批训练示例的损失值。" #: ../../source/example-mxnet-walk-through.rst:123 msgid "" "The evaluation of the model is defined in function :code:`test()`. The " "function loops over all test samples and measures the loss and accuracy of " "the model based on the test dataset." -msgstr "" -"模型的评估在函数 :code:`test()` 中定义。该函数循环遍历所有测试样本,并根据测" -"试数据集测量模型的损失和准确度。" +msgstr "模型的评估在函数 :code:`test()` 中定义。该函数循环遍历所有测试样本,并根据测" +"试数据集计算模型的损失值和准确度。" #: ../../source/example-mxnet-walk-through.rst:158 msgid "" @@ -2648,13 +2646,13 @@ msgid "" "that the GPU/CPU device for the training and testing is defined within the :" "code:`ctx` (context)." msgstr "" -"在定义了数据加载、模型架构、训练和评估之后,我们就可以把所有东西放在一起,在 " -"MNIST 上训练我们的模型。请注意,用于训练和测试的 GPU/CPU 设备是在 :code:`ctx`" -"(上下文)中定义的。" +"在定义了数据加载、模型架构、训练和评估之后,我们就可以把所有放在一起,在 " +"MNIST 上训练我们的模型了。请注意,用于训练和测试的 GPU/CPU 设备是在 " +":code:`ctx`中定义的。" #: ../../source/example-mxnet-walk-through.rst:184 msgid "You can now run your (centralized) MXNet machine learning workload:" -msgstr "现在,您可以运行(集中式)MXNet 机器学习工作负载:" +msgstr "现在,您可以运行(集中式)MXNet 机器学习工作:" #: ../../source/example-mxnet-walk-through.rst:190 msgid "" @@ -2662,13 +2660,13 @@ msgid "" "PyTorch) before. Let's take the next step and use what we've built to create " "a simple federated learning system consisting of one server and two clients." msgstr "" -"到目前为止,如果你以前使用过 MXNet(甚至 PyTorch),这一切看起来应该相当熟" -"悉。下一步,让我们利用已构建的内容创建一个由一个服务器和两个客户端组成的简单" -"联合学习系统。" +"到目前为止,如果你以前使用过 MXNet(甚至 PyTorch),这一切看起来应该相当熟悉" +"。下一步,让我们利用已构建的内容创建一个简单联邦学习系统(由一个服务器和两个" +"客户端组成)。" #: ../../source/example-mxnet-walk-through.rst:194 msgid "MXNet meets Flower" -msgstr "MXNet 遇见 Flower" +msgstr "MXNet 结合 Flower" #: ../../source/example-mxnet-walk-through.rst:196 msgid "" @@ -2678,9 +2676,9 @@ msgid "" "be used to federated arbitrary machine learning workloads. This section will " "show you how Flower can be used to federate our centralized MXNet workload." msgstr "" -"迄今为止,由于 MXNet 不支持联合学习,因此无法轻松地将 MXNet 工作负载用于联合" -"学习。由于 Flower 与底层机器学习框架完全无关,因此它可用于联合任意机器学习工" -"作负载。本节将向你展示如何使用 Flower 联合我们的集中式 MXNet 工作负载。" +"由于 MXNet 目前不支持联邦学习,因此无法轻松地直接将 MXNet 用于联邦学习之中。" +"Flower 与底层机器学习框架完全无关,因此它可用于任意联邦式机器学习工作。" +"本节将向你展示如何使用 Flower 将我们的集中式 MXNet 改为联邦式训练。" #: ../../source/example-mxnet-walk-through.rst:198 msgid "" @@ -2693,11 +2691,11 @@ msgid "" "one round of the federated learning process and we repeat this for multiple " "rounds." msgstr "" -"联合现有工作负载的概念始终是相同的,也很容易理解。我们必须启动一个*服务器*," -"然后对连接到*服务器*的*客户端*使用 :code:`mxnet_mnist.py`中的代码。服务器*向" -"客户端*发送模型参数。客户端*运行训练并更新参数。更新后的参数被发回*服务器,*" -"服务器会对所有收到的参数更新进行平均。以上描述的是一轮联合学习过程,我们将重" -"复进行多轮学习。" +"将现有模型框架联邦化的概念始终是相同的,也很容易理解。我们必须启动一个*服务器" +"*,然后对连接到*服务器*的*客户端*使用 :code:`mxnet_mnist.py`中的代码。*服务器" +"*向客户端发送模型参数,然后*客户端*运行训练并更新参数。更新后的参数被发回*服" +"务器*,然后会对所有收到的参数更新进行平均聚合。以上描述的是一轮联邦学习过程," +"我们将重复进行多轮学习。" #: ../../source/example-mxnet-walk-through.rst:220 msgid "" @@ -2722,26 +2720,27 @@ msgid "" "implement four methods, two methods for getting/setting model parameters, " "one method for training the model, and one method for testing the model:" msgstr "" -"实现 Flower *client*基本上意味着实现 :code:`flwr.client.Client` 或 :code:" -"`flwr.client.NumPyClient` 的子类。我们的实现将基于 :code:`flwr.client." -"NumPyClient`,并将其命名为 :code:`MNISTClient`。如果使用具有良好 NumPy 互操作" -"性的框架(如 PyTorch 或 MXNet),:code:`NumPyClient` 比 :code:`Client`更容易" -"实现,因为它避免了一些必要的模板。:code:`MNISTClient` 需要实现四个方法,两个" -"用于获取/设置模型参数,一个用于训练模型,一个用于测试模型:" +"实现 Flower *client*基本上意味着要实现 :code:`flwr.client.Client` 或 " +":code:`flwr.client.NumPyClient` 的子类。我们的代码实现将基于 :code:`flwr." +"client.NumPyClient`,并将其命名为 :code:`MNISTClient`。如果使用具有良好 " +"NumPy 互操作性的框架(如 PyTorch 或 MXNet),:code:`NumPyClient` 比 " +":code:`Client`更容易实现,因为它避免了一些不必要的操作。:code:`MNISTClient` " +"需要实现四个方法,两个用于获取/设置模型参数,一个用于训练模型,一个用于测试模" +"型:" #: ../../source/example-mxnet-walk-through.rst:242 msgid "transform MXNet :code:`NDArray`'s to NumPy :code:`ndarray`'s" -msgstr "将 MXNet :code:`NDArray`'s 转换为 NumPy :code:`ndarray`'s" +msgstr "将 MXNet :code:`NDArray` 转换为 NumPy :code:`ndarray`" #: ../../source/example-mxnet-walk-through.rst:249 #: ../../source/example-pytorch-from-centralized-to-federated.rst:226 msgid "get the updated local model weights and return them to the server" -msgstr "获取更新后的本地模型权重并返回给服务器" +msgstr "获取更新后的本地模型参数并发送回服务器" #: ../../source/example-mxnet-walk-through.rst:253 #: ../../source/example-pytorch-from-centralized-to-federated.rst:230 msgid "return the local loss and accuracy to the server" -msgstr "向服务器返回本地损耗和精确度" +msgstr "向服务器返回本地损失值和精确度" #: ../../source/example-mxnet-walk-through.rst:255 msgid "" @@ -2760,10 +2759,10 @@ msgid "" "functions to call for training and evaluation. We included type annotations " "to give you a better understanding of the data types that get passed around." msgstr "" -"两个 :code:`NumPyClient` 方法 :code:`fit` 和 :code:`evaluate` 使用了之前在 :" -"code:`mxnet_mnist.py` 中定义的函数 :code:`train()` 和 :code:`test()`。因此," -"我们在这里要做的就是通过 :code:`NumPyClient` 子类告诉 Flower 在训练和评估时要" -"调用哪些已定义的函数。我们加入了类型注解,以便让你更好地理解传递的数据类型。" +"这两个 :code:`NumPyClient` 方法 :code:`fit` 和 :code:`evaluate` 使用了之前在 " +":code:`mxnet_mnist.py` 中定义的函数 :code:`train()` 和 :code:`test()`。因此," +"我们要做的就是通过 :code:`NumPyClient` 子类告知 Flower 在训练和评估时要调用哪" +"些已定义的函数。我们加入了类型注解,以便让您更好地理解传递的数据类型。" #: ../../source/example-mxnet-walk-through.rst:319 msgid "" @@ -2778,9 +2777,8 @@ msgid "" "in each window (make sure that the server is still running before you do so) " "and see your MXNet project run federated learning across two clients. " "Congratulations!" -msgstr "" -"在每个窗口中查看 (确保服务器仍在运行),然后就能看到 MXNet 项目在两个客户端上" -"运行联合学习。恭喜您!" +msgstr "确保服务器仍在运行后,然后就能在每个窗口中看到 MXNet " +"项目在两个客户端上运行联邦学习了。祝贺!" #: ../../source/example-mxnet-walk-through.rst:358 msgid "" @@ -2791,15 +2789,15 @@ msgid "" "realistic. You're now prepared to explore this topic further. How about " "using a CNN or using a different dataset? How about adding more clients?" msgstr "" -"此示例的完整源代码:\"MXNet: From Centralized To Federated (Code) `_。当然,我们的示例有些过于简单,因为两个客户端都加载了完全相同的" -"数据集,这并不现实。现在,您已经准备好进一步探讨这一主题了。使用 CNN 或使用不" -"同的数据集如何?添加更多客户端如何?" +"数据集,这并不真实。现在您已经准备好进一步探讨了。使用 CNN " +"或使用不同的数据集会如何?添加更多客户端会如何?" #: ../../source/example-pytorch-from-centralized-to-federated.rst:2 msgid "Example: PyTorch - From Centralized To Federated" -msgstr "实例: PyTorch - 从集中到联合" +msgstr "实例: PyTorch - 从集中式到联邦式" #: ../../source/example-pytorch-from-centralized-to-federated.rst:4 msgid "" @@ -2811,11 +2809,11 @@ msgid "" "cifar10_tutorial.html>`_ tutorial. Then, we build upon the centralized " "training code to run the training in a federated fashion." msgstr "" -"本教程将向您展示如何使用 Flower 构建现有机器学习工作负载的联合版本。我们使用 " +"本教程将向您展示如何使用 Flower 构建现有机器学习工作的联邦版本。我们使用 " "PyTorch 在 CIFAR-10 数据集上训练一个卷积神经网络。首先,我们基于 \"Deep " "Learning with PyTorch `_\"教程,采用集中式训练方法介绍了这项机器学习任务。然" -"后,我们在集中式训练代码的基础上以联盟方式运行训练。" +"后,我们在集中式训练代码的基础上以联邦方式运行训练。" #: ../../source/example-pytorch-from-centralized-to-federated.rst:12 msgid "" @@ -2825,8 +2823,8 @@ msgid "" "cifar10_tutorial.html>`_." msgstr "" "我们首先简要介绍一下集中式 CNN 训练代码。如果您想获得更深入的解释,请参阅 " -"PyTorch 官方教程 `_。" +"PyTorch 官方教程`PyTorch tutorial `_。" #: ../../source/example-pytorch-from-centralized-to-federated.rst:15 msgid "" @@ -2837,10 +2835,10 @@ msgid "" "learning. You can keep all these imports as they are even when we add the " "federated learning components at a later point." msgstr "" -"让我们创建一个名为 :code:`cifar.py` 的新文件,其中包含 CIFAR-10 传统(集中)" -"培训所需的所有组件。首先,需要导入所有必需的软件包(如 :code:`torch` 和 :" -"code:`torchvision`)。您可以看到,我们没有导入任何用于联合学习的软件包。即使" -"在以后添加联合学习组件时,也可以保留所有这些导入。" +"让我们创建一个名为 :code:`cifar.py` 的新文件,其中包含 CIFAR-10 " +"传统(集中)培训所需的所有组件。首先,需要导入所有必需的软件包(如 " +":code:`torch` 和 :code:`torchvision`)。您可以看到,我们没有导入任何用于联邦" +"学习的软件包。即使在以后添加联邦学习组件时,也可以保留所有这些导入。" #: ../../source/example-pytorch-from-centralized-to-federated.rst:32 msgid "" @@ -2865,25 +2863,23 @@ msgid "" "over the training set, measures the loss, backpropagates it, and then takes " "one optimizer step for each batch of training examples." msgstr "" -"现在,我们需要定义训练(函数 :code:`train()`),该函数在训练集上循环、测量损" -"失、反向传播损失,然后为每批训练示例执行一个优化步骤。" +"现在,我们需要定义训练函数(:code:`train()`),该函数在训练集上循环训练,计算" +"损失值并反向传播,然后为每批训练数据在优化器上执行一个优化步骤。" #: ../../source/example-pytorch-from-centralized-to-federated.rst:76 msgid "" "The evaluation of the model is defined in the function :code:`test()`. The " "function loops over all test samples and measures the loss of the model " "based on the test dataset." -msgstr "" -"模型的评估在函数 :code:`test()` 中定义。该函数循环遍历所有测试样本,并根据测" -"试数据集测量模型的损失。" +msgstr "模型的评估在函数 :code:`test()` " +"中定义。该函数循环遍历所有测试样本,并计算测试数据集的模型损失值。" #: ../../source/example-pytorch-from-centralized-to-federated.rst:136 msgid "" "Having defined the data loading, model architecture, training, and " "evaluation we can put everything together and train our CNN on CIFAR-10." -msgstr "" -"在确定了数据加载、模型架构、训练和评估之后,我们就可以将所有内容整合在一起," -"在 CIFAR-10 上训练我们的 CNN。" +msgstr "在确定了数据加载、模型架构、训练和评估之后,我们就可以将所有整合在一起,在 " +"CIFAR-10 上训练我们的 CNN。" #: ../../source/example-pytorch-from-centralized-to-federated.rst:163 msgid "" @@ -2892,8 +2888,8 @@ msgid "" "federated learning system consisting of one server and two clients." msgstr "" "到目前为止,如果你以前用过 PyTorch,这一切看起来应该相当熟悉。让我们进行下一" -"步,利用我们所构建的内容创建一个由一个服务器和两个客户端组成的简单联合学习系" -"统。" +"步,利用我们所构建的内容创建一个简单联邦学习系统(由一个服务器和两个客户端组" +"成)。" #: ../../source/example-pytorch-from-centralized-to-federated.rst:169 msgid "" @@ -2907,15 +2903,15 @@ msgid "" msgstr "" "上一节讨论的简单机器学习项目在单一数据集(CIFAR-10)上训练模型,我们称之为集" "中学习。如上一节所示,集中学习的概念可能为大多数人所熟知,而且很多人以前都使" -"用过。通常情况下,如果要以联合方式运行机器学习工作负载,就必须更改大部分代" -"码,并从头开始设置一切。这可能是一个相当大的工作量。" +"用过。通常情况下,如果要以联邦方式运行机器学习工作,就必须更改大部分代码,并" +"从头开始设置一切。这可能是一个相当大的工作量。" #: ../../source/example-pytorch-from-centralized-to-federated.rst:173 msgid "" "However, with Flower you can evolve your pre-existing code into a federated " "learning setup without the need for a major rewrite." -msgstr "" -"不过,有了 Flower,你可以将已有的代码演化成联合学习设置,而无需进行重大重写。" +msgstr "不过,有了 " +"Flower,您可以轻松地将已有的代码转变成联邦学习的模式,无需进行大量重写。" #: ../../source/example-pytorch-from-centralized-to-federated.rst:175 msgid "" @@ -2928,9 +2924,9 @@ msgid "" "multiple rounds." msgstr "" "这个概念很容易理解。我们必须启动一个*服务器*,然后对连接到*服务器*的*客户端*" -"使用 :code:`cifar.py`中的代码。服务器*向客户端发送模型参数。客户端*运行训练并" -"更新参数。更新后的参数被发回*服务器,*服务器会对所有收到的参数更新进行平均。" -"以上描述的是一轮联合学习过程,我们将重复进行多轮学习。" +"使用 :code:`cifar.py`中的代码。*服务器*向客户端发送模型参数,*客户端*运行训练" +"并更新参数。更新后的参数被发回*服务器*,然后会对所有收到的参数更新进行平均聚" +"合。以上描述的是一轮联邦学习过程,我们将重复进行多轮学习。" #: ../../source/example-pytorch-from-centralized-to-federated.rst:197 msgid "" @@ -2956,13 +2952,14 @@ msgid "" "parameters, one method for training the model, and one method for testing " "the model:" msgstr "" -"实现 Flower *client*基本上意味着实现 :code:`flwr.client.Client` 或 :code:" -"`flwr.client.NumPyClient` 的子类。我们的实现将基于 :code:`flwr.client." -"NumPyClient`,并将其命名为 :code:`CifarClient`。如果使用具有良好 NumPy 互操作" -"性的框架(如 PyTorch 或 TensorFlow/Keras),:code:`NumPyClient`的实现比 :" -"code:`Client`略微容易一些,因为它避免了一些原本需要的模板。:code:" -"`CifarClient` 需要实现四个方法,两个用于获取/设置模型参数,一个用于训练模型," -"一个用于测试模型:" +"实现 Flower *client*基本上意味着实现 :code:`flwr.client.Client` 或 " +":code:`flwr.client.NumPyClient` 的子类。我们的代码实现将基于 :code:`flwr." +"client.NumPyClient`,并将其命名为 :code:`CifarClient`。如果使用具有良好 " +"NumPy 互操作性的框架(如 PyTorch 或 TensorFlow/Keras),:code:`NumPyClient`" +"的实现比 " +":code:`Client`略微容易一些,因为它避免了一些不必要的操作。:code:`CifarClient`" +" 需要实现四个方法,两个用于获取/设置模型参数,一个用于训练模型,一个用于测试" +"模型:" #: ../../source/example-pytorch-from-centralized-to-federated.rst:219 msgid ":code:`set_parameters`" @@ -2977,10 +2974,11 @@ msgid "" "call for training and evaluation. We included type annotations to give you a " "better understanding of the data types that get passed around." msgstr "" -"两个 :code:`NumPyClient` 方法 :code:`fit` 和 :code:`evaluate` 使用了之前在 :" -"code:`cifar.py` 中定义的函数 :code:`train()` 和 :code:`test()`。因此,我们在" -"这里要做的就是通过 :code:`NumPyClient` 子类告诉 Flower 在训练和评估时要调用哪" -"些已定义的函数。我们加入了类型注解,以便让你更好地理解传递的数据类型。" +"这两个 :code:`NumPyClient` 中的方法 :code:`fit` 和 :code:`evaluate` " +"使用了之前在 :code:`cifar.py` 中定义的函数 :code:`train()` 和 " +":code:`test()`。因此,我们在这里要做的就是通过 :code:`NumPyClient` 子类告知 " +"Flower 在训练和评估时要调用哪些已定义的函数。我们加入了类型注解,以便让你更好" +"地理解传递的数据类型。" #: ../../source/example-pytorch-from-centralized-to-federated.rst:280 msgid "" @@ -2990,15 +2988,18 @@ msgid "" "function :code:`fl.client.start_client()` by pointing it at the same IP " "adress we used in :code:`server.py`:" msgstr "" +"剩下的就是定义模型和数据加载函数了。创建一个:code:`CifarClient`类,并运行这个" +"客服端。您将通过:code:`cifar.py`加载数据和模型。另外,通过:code:`fl.client.st" +"art_client()`函数来运行客户端:code:`CifarClient`,需要保证IP地址和:code:`serv" +"er.py`中所使用的一致:" #: ../../source/example-pytorch-from-centralized-to-federated.rst:307 msgid "" "in each window (make sure that the server is running before you do so) and " "see your (previously centralized) PyTorch project run federated learning " "across two clients. Congratulations!" -msgstr "" -"在各窗口查看(做之前确保服务器正在运行),然后就能看到你的 PyTorch 项目(之前" -"是集中式的)在两个客户端上运行联合学习。恭喜你!" +msgstr "确保服务器正在运行后,您就能看到您的 PyTorch " +"项目(之前是集中式的)在两个客户端上运行联邦学习了。祝贺!" #: ../../source/example-pytorch-from-centralized-to-federated.rst:312 msgid ""