From 7c381f9c65550a08203f12a5443b65f463d69ae5 Mon Sep 17 00:00:00 2001 From: yuchen202 <103028470+yuchen202@users.noreply.github.com> Date: Mon, 16 Oct 2023 23:43:36 +0800 Subject: [PATCH] 1016modify the document MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit 文档修复,BUG确认赛 --- docs/api/paddle/Tensor_cn.rst | 2 +- docs/api/paddle/bmm_cn.rst | 2 +- docs/api/paddle/distributed/fleet/Fleet_cn.rst | 2 +- docs/api/paddle/metric/Recall_cn.rst | 2 +- docs/api/paddle/nn/LSTM_cn.rst | 4 ++-- docs/api/paddle/nn/functional/grid_sample_cn.rst | 2 +- 6 files changed, 7 insertions(+), 7 deletions(-) diff --git a/docs/api/paddle/Tensor_cn.rst b/docs/api/paddle/Tensor_cn.rst index 6b958b18b6e..f3f1b3d7a6f 100755 --- a/docs/api/paddle/Tensor_cn.rst +++ b/docs/api/paddle/Tensor_cn.rst @@ -231,7 +231,7 @@ stop_gradient ::::::::: 查看一个 Tensor 是否计算并传播梯度,如果 stop_gradient 为 True,则该 Tensor 不会计算梯度,并会阻绝 Autograd 的梯度传播。 -反之,则会计算梯度并传播梯度。用户自行创建的的 Tensor,默认是 True,模型参数的 stop_gradient 都为 False。 +反之,则会计算梯度并传播梯度。用户自行创建的 Tensor,默认是 True,模型参数的 stop_gradient 都为 False。 **代码示例** diff --git a/docs/api/paddle/bmm_cn.rst b/docs/api/paddle/bmm_cn.rst index 6540b4da68b..5aa4d52209e 100644 --- a/docs/api/paddle/bmm_cn.rst +++ b/docs/api/paddle/bmm_cn.rst @@ -10,7 +10,7 @@ bmm 对输入 x 及输入 y 进行矩阵相乘。 -两个输入的维度必须等于 3,并且矩阵 x 和矩阵 y 的第一维必须相等。同时矩阵 x 的第二维必须等于矩阵 y 的第三维。 +两个输入的维度必须等于 3,并且矩阵 x 和矩阵 y 的第一维必须相等。同时矩阵 x 的第三维必须等于矩阵 y 的第二维。 例如:若 x 和 y 分别为 (b, m, k) 和 (b, k, n) 的矩阵,则函数的输出为一个 (b, m, n) 的矩阵。 diff --git a/docs/api/paddle/distributed/fleet/Fleet_cn.rst b/docs/api/paddle/distributed/fleet/Fleet_cn.rst index 22b59b06daa..de60da44cc4 100644 --- a/docs/api/paddle/distributed/fleet/Fleet_cn.rst +++ b/docs/api/paddle/distributed/fleet/Fleet_cn.rst @@ -98,7 +98,7 @@ int worker_num() ''''''''' -返回当前全部训练节点中`workjer`节点的个数 +返回当前全部训练节点中`worker`节点的个数 **返回** int diff --git a/docs/api/paddle/metric/Recall_cn.rst b/docs/api/paddle/metric/Recall_cn.rst index 9947ac1d2b5..bdf8cfb6f3a 100644 --- a/docs/api/paddle/metric/Recall_cn.rst +++ b/docs/api/paddle/metric/Recall_cn.rst @@ -67,7 +67,7 @@ accumulate() **返回** -precision 值,一个标量。 +recall 值,一个标量。 name() diff --git a/docs/api/paddle/nn/LSTM_cn.rst b/docs/api/paddle/nn/LSTM_cn.rst index f09b172b32a..6e39a0793de 100644 --- a/docs/api/paddle/nn/LSTM_cn.rst +++ b/docs/api/paddle/nn/LSTM_cn.rst @@ -9,7 +9,7 @@ LSTM **长短期记忆网络** -长短期记忆网络(LSTM),根据输出序列和给定的初始状态计算返回输出序列和最终状态。在该网络中的每一层对应输入的 step,每个 step 根据当前时刻输入 :math:`x_{t}` 和上一时刻状态 :math:`h_{t-1}, c_{t-1}` 计算当前时刻输出 :math:`y_{t}` 并更新状态 :math:`h_{t}, c_{t}` 。 +长短期记忆网络(LSTM),根据输入序列和给定的初始状态计算返回输出序列和最终状态。在该网络中的每一层对应输入的 step,每个 step 根据当前时刻输入 :math:`x_{t}` 和上一时刻状态 :math:`h_{t-1}, c_{t-1}` 计算当前时刻输出 :math:`y_{t}` 并更新状态 :math:`h_{t}, c_{t}` 。 状态更新公式如下: @@ -41,7 +41,7 @@ LSTM - **num_layers** (int,可选) - 循环网络的层数。例如,将层数设为 2,会将两层 GRU 网络堆叠在一起,第二层的输入来自第一层的输出。默认为 1。 - **direction** (str,可选) - 网络迭代方向,可设置为 forward 或 bidirect(或 bidirectional)。foward 指从序列开始到序列结束的单向 GRU 网络方向,bidirectional 指从序列开始到序列结束,又从序列结束到开始的双向 GRU 网络方向。默认为 forward。 - **time_major** (bool,可选) - 指定 input 的第一个维度是否是 time steps。如果 time_major 为 True,则 Tensor 的形状为[time_steps,batch_size,input_size],否则为[batch_size,time_steps,input_size]。`time_steps` 指输入序列的长度。默认为 False。 - - **dropout** (float,可选) - dropout 概率,指的是出第一层外每层输入时的 dropout 概率。范围为[0, 1]。默认为 0。 + - **dropout** (float,可选) - dropout 概率,指的是除第一层外每层输入时的 dropout 概率。范围为[0, 1]。默认为 0。 - **weight_ih_attr** (ParamAttr,可选) - weight_ih 的参数。默认为 None。 - **weight_hh_attr** (ParamAttr,可选) - weight_hh 的参数。默认为 None。 - **bias_ih_attr** (ParamAttr,可选) - bias_ih 的参数。默认为 None。 diff --git a/docs/api/paddle/nn/functional/grid_sample_cn.rst b/docs/api/paddle/nn/functional/grid_sample_cn.rst index 36697fe033c..e9f4259fac6 100644 --- a/docs/api/paddle/nn/functional/grid_sample_cn.rst +++ b/docs/api/paddle/nn/functional/grid_sample_cn.rst @@ -35,7 +35,7 @@ step 2: | | | | d_s | | | | - ws ------- y_s ------- wn + ws ------- y_s ------- es x_w = floor(x) // west side x coord x_e = x_w + 1 // east side x coord