深度学习(2):自动微分

发布于:2025-08-08 ⋅ 阅读:(137) ⋅ 点赞:(0)

自动微分模块torch.autograd负责自动计算张量操作的梯度,具有自动求导功能。自动微分模块是构成神经网络训练的必要模块,可以实现网络权重参数的更新,使得反向传播算法的实现变得简单而高效。

  1. 张量

    Torch中一切皆为张量,属性requires_grad决定是否对其进行梯度计算。默认是 False,如需计算梯度则设置为True。

  2. 计算图

    torch.autograd通过创建一个动态计算图来跟踪张量的操作,每个张量是计算图中的一个节点,节点之间的操作构成图的边。

    在 PyTorch 中,当张量的 requires_grad=True 时,PyTorch 会自动跟踪与该张量相关的所有操作,并构建计算图。每个操作都会生成一个新的张量,并记录其依赖关系。当设置为 True 时,表示该张量在计算图中需要参与梯度计算,即在反向传播(Backpropagation)过程中会自动计算其梯度;当设置为 False 时,不会计算梯度。

1、detach():修改叶子节点

    t = torch.tensor([1, 2, 3], dtype=torch.float, requires_grad=True)
    t[0] = 10
    print(t)#会报错

    # 计算图中的叶子节点不允许直接修改
    # 如果要修改,使用detach()
    t1 = t.detach()
    t1[0] = 10
    print(t1)#tensor([10.,  2.,  3.])
    print(t)#tensor([10.,  2.,  3.], requires_grad=True)

2、y.backward():反向传播,自动计算梯度

# 张量添加requires_grad属性,张量的数据类型需要时float
# 如果数据类型是整数,则报错
# RuntimeError: Only Tensors of floating point and complex dtype can require gradients
x = torch.tensor(2.0, requires_grad=True)
y = x ** 2

# 反向传播,自动计算梯度
y.backward()

3、计算梯度

    x = torch.tensor([1, 2, 3], requires_grad=True, dtype=torch.float)

    y = x ** 2

    # z = y.sum()
    z = y.mean()

    # 反向传播默认输出是标量,如果输出值是向量可以在backward()进行梯度张量初始化
    # y.backward(torch.tensor([1.0, 1.0, 1.0]))

    z.backward()

    print(x.grad)#tensor([0.6667, 1.3333, 2.0000])

(1)、标量梯度计算

    x1 = torch.tensor(2, requires_grad=True, dtype=torch.float)
    x2 = torch.tensor(3, requires_grad=True, dtype=torch.float)

    y = x1**2 + x2**2

    y.backward()

    print(x1.grad, x2.grad)#tensor(4.) tensor(6.)

(2)、向量梯度计算

    x1 = torch.tensor([1,2,3], requires_grad=True, dtype=torch.float)
    x2 = torch.tensor([2,3,4], requires_grad=True, dtype=torch.float)

    y = x1**2 + 2*x2

    z = y.sum()

    z.backward()

    print(x1.grad, x2.grad)#tensor([2., 4., 6.]) tensor([2., 2., 2.])

4、控制梯度计算

    x = torch.tensor(5.0, requires_grad=True)

    # y默认也会参与梯度计算,但是不保存该梯度值
    # y = x**2
    # print(y.requires_grad)

    # torch.no_grad():设置不参与梯度计算
    with torch.no_grad():
        y = x**2
        print(y.requires_grad)

5、梯度清零

    x = torch.tensor([1, 2, 3], requires_grad=True, dtype=torch.float)

    # 默认情况下,叶子节点的梯度不会自动清零,会累加
    for epoch in range(5):
        y = x ** 2
        z = y.sum()

        # 自动清零
        # 目的:获取当前轮次的梯度,不是累加值
        if x.grad is not None:
            x.grad.zero_()

        z.backward()

        print(x.grad)
#tensor([2., 4., 6.])
#tensor([2., 4., 6.])
#tensor([2., 4., 6.])
#tensor([2., 4., 6.])
#tensor([2., 4., 6.])

6、通过梯度下降找到函数最小值

    # 初始化起始值
    x = torch.tensor(3.0, requires_grad=True)

    epochs = 50
    # 学习率
    lr = 0.1

    listx = []
    listy = []
    for epoch in range(epochs):
        y = x ** 2

        # 梯度清零
        if x.grad is not None:
            x.grad.zero_()
        # 反向传播,计算梯度
        y.backward()

        # 设置不参与梯度计算
        with torch.no_grad():
            # 梯度下降
            # x = x-lr*x.grad # x 为新变量
            x -= lr * x.grad  # x原地修改
        print(f'epoch: {epoch}, x: {x}')
        listx.append(x.item())
        listy.append(y.item())
    plt.scatter(listx, listy)
    plt.show()

7、函数参数求解

import torch
    # 定义数据
    x = torch.tensor([1, 2, 3, 4, 5], dtype=torch.float)
    y = torch.tensor([3, 5, 7, 9, 11], dtype=torch.float)

    # 定义模型参数 a 和 b,并初始化
    a = torch.tensor([1], dtype=torch.float, requires_grad=True)
    b = torch.tensor([1], dtype=torch.float, requires_grad=True)
    # 学习率
    lr = 0.1
    # 迭代轮次
    epochs = 100

    for epoch in range(epochs):


        # 前向传播:计算预测值 y_pred
        y_pred = a * x + b

        # 定义损失函数
        loss = ((y_pred - y) ** 2).mean()

        if a.grad is not None and b.grad is not None:
            a.grad.zero_()
            b.grad.zero_()

        # 反向传播:计算梯度
        loss.backward()

        # 梯度下降
        with torch.no_grad():
            a -= lr * a.grad
            b -= lr * b.grad

        if (epoch + 1) % 10 == 0:
            print(f'Epoch [{epoch + 1}/{epochs}], Loss: {loss.item():.4f}')

    print(f'a: {a.item()}, b: {b.item()}')

1、数据定义

2、模型参数初始化

3、超参数设置

4、训练循环

        4.1、前向传播

                使用当前的 a 和 b 计算预测值 y_pred

        4.2、计算损失

                损失函数衡量预测值与真实值的差距

                这里使用均方误差(MSE):先计算每个样本的误差平方,再取平均值

        4.3、梯度清零

                清除上一轮计算的梯度(PyTorch 会累积梯度,所以需要手动清零)

        4.4、反向传播

                基于计算图自动求导,得到 a.grad 和 b.grad(损失对 a 和 b 的偏导数

        4.5、参数更新

              使用梯度下降公式更新参数:参数 = 参数 - 学习率 × 梯度

    with torch.no_grad() 确保参数更新操作不会被计入计算图

        4.6、打印训练进度

                每 10 轮打印一次当前的损失值,观察训练效果

5、最终结果

输出学习到的参数值

  • a 会接近 2

  • b 会接近 1

  • 损失会接近 0


网站公告

今日签到

点亮在社区的每一天
去签到