Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

修复docs\api\paddle\Tenso 等 API 的文档 #6229

Merged
merged 1 commit into from
Oct 18, 2023
Merged
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
2 changes: 1 addition & 1 deletion docs/api/paddle/Tensor_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -231,7 +231,7 @@ stop_gradient
:::::::::

查看一个 Tensor 是否计算并传播梯度,如果 stop_gradient 为 True,则该 Tensor 不会计算梯度,并会阻绝 Autograd 的梯度传播。
反之,则会计算梯度并传播梯度。用户自行创建的的 Tensor,默认是 True,模型参数的 stop_gradient 都为 False。
反之,则会计算梯度并传播梯度。用户自行创建的 Tensor,默认是 True,模型参数的 stop_gradient 都为 False。

**代码示例**

Expand Down
2 changes: 1 addition & 1 deletion docs/api/paddle/bmm_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -10,7 +10,7 @@ bmm

对输入 x 及输入 y 进行矩阵相乘。

两个输入的维度必须等于 3,并且矩阵 x 和矩阵 y 的第一维必须相等。同时矩阵 x 的第二维必须等于矩阵 y 的第三维
两个输入的维度必须等于 3,并且矩阵 x 和矩阵 y 的第一维必须相等。同时矩阵 x 的第三维必须等于矩阵 y 的第二维

例如:若 x 和 y 分别为 (b, m, k) 和 (b, k, n) 的矩阵,则函数的输出为一个 (b, m, n) 的矩阵。

Expand Down
2 changes: 1 addition & 1 deletion docs/api/paddle/distributed/fleet/Fleet_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -98,7 +98,7 @@ int
worker_num()
'''''''''

返回当前全部训练节点中`workjer`节点的个数
返回当前全部训练节点中`worker`节点的个数

**返回**
int
Expand Down
2 changes: 1 addition & 1 deletion docs/api/paddle/metric/Recall_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -67,7 +67,7 @@ accumulate()

**返回**

precision 值,一个标量。
recall 值,一个标量。


name()
Expand Down
4 changes: 2 additions & 2 deletions docs/api/paddle/nn/LSTM_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -9,7 +9,7 @@ LSTM

**长短期记忆网络**

长短期记忆网络(LSTM),根据输出序列和给定的初始状态计算返回输出序列和最终状态。在该网络中的每一层对应输入的 step,每个 step 根据当前时刻输入 :math:`x_{t}` 和上一时刻状态 :math:`h_{t-1}, c_{t-1}` 计算当前时刻输出 :math:`y_{t}` 并更新状态 :math:`h_{t}, c_{t}` 。
长短期记忆网络(LSTM),根据输入序列和给定的初始状态计算返回输出序列和最终状态。在该网络中的每一层对应输入的 step,每个 step 根据当前时刻输入 :math:`x_{t}` 和上一时刻状态 :math:`h_{t-1}, c_{t-1}` 计算当前时刻输出 :math:`y_{t}` 并更新状态 :math:`h_{t}, c_{t}` 。

状态更新公式如下:

Expand Down Expand Up @@ -41,7 +41,7 @@ LSTM
- **num_layers** (int,可选) - 循环网络的层数。例如,将层数设为 2,会将两层 GRU 网络堆叠在一起,第二层的输入来自第一层的输出。默认为 1。
- **direction** (str,可选) - 网络迭代方向,可设置为 forward 或 bidirect(或 bidirectional)。foward 指从序列开始到序列结束的单向 GRU 网络方向,bidirectional 指从序列开始到序列结束,又从序列结束到开始的双向 GRU 网络方向。默认为 forward。
- **time_major** (bool,可选) - 指定 input 的第一个维度是否是 time steps。如果 time_major 为 True,则 Tensor 的形状为[time_steps,batch_size,input_size],否则为[batch_size,time_steps,input_size]。`time_steps` 指输入序列的长度。默认为 False。
- **dropout** (float,可选) - dropout 概率,指的是出第一层外每层输入时的 dropout 概率。范围为[0, 1]。默认为 0。
- **dropout** (float,可选) - dropout 概率,指的是除第一层外每层输入时的 dropout 概率。范围为[0, 1]。默认为 0。
- **weight_ih_attr** (ParamAttr,可选) - weight_ih 的参数。默认为 None。
- **weight_hh_attr** (ParamAttr,可选) - weight_hh 的参数。默认为 None。
- **bias_ih_attr** (ParamAttr,可选) - bias_ih 的参数。默认为 None。
Expand Down
2 changes: 1 addition & 1 deletion docs/api/paddle/nn/functional/grid_sample_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -35,7 +35,7 @@ step 2:
| | |
| d_s |
| | |
ws ------- y_s ------- wn
ws ------- y_s ------- es

x_w = floor(x) // west side x coord
x_e = x_w + 1 // east side x coord
Expand Down