2024-11-27 学习人工智能的Day32 神经网络与反向传播

发布于:2024-11-28 ⋅ 阅读:(15) ⋅ 点赞:(0)

一、神经网络

神经网络神经网络(Neural Networks)是一种模拟人脑神经元网络结构的计算模型,用于处理复杂的模式识别、分类和预测等任务。

人工神经元是神经网络的基础构建单元,模仿了神武神经元的工作原理,核心功能是接收输入信号,经过加权求和和非线性激活函数处理后输出结果。

  1. 人工神经元
    • 输入:神经元接收多个输入,每个输入有一个对应的权重。
    • 加权求和:计算输入的加权和,添加偏置项。
    • 激活函数:对加权和结果应用激活函数,引入非线性能力。
  2. 神经网络结构
    • 输入层:接收数据,不进行计算。
    • 隐藏层:提取特征,通过多层堆叠实现复杂变换。
    • 输出层:生成预测结果或分类。
  3. 全连接网络
    • 每层神经元与上一层的所有神经元相连。
    • 常见问题:参数量大,容易过拟合;对高维数据局部特征捕捉能力差。

先说一下参数的初始化,对于线性回归模型来说,在进行正向传播时,不能缺失的值有构成前向传播方程的偏置和权重这两个值,而对于输入层来说,就是传入y = w*x+b中的x,而为了方便传播,在输入层中就会将传入的x引入这个方程来进行定义的线性变换,但是输出层只负责最简单的线性变化。

在这个线性变化过程中就有一个问题,这个方程中的w和b哪里来?

由于之前学过线性回归的时候我们知道,这个前向传播的方程是为了算出预测值来与实际数据进行损失计算然后通过反向传播来更新梯度值进行简单的梯度下降来逼近我们希望求得的权重和偏置,所以输出层的权重和偏置是由我们自定义的,而torch中就提供了很多种初始化的方法。接下来说几个例子。

全零初始化

因为会破坏对称性,一般治用于初始化偏置

import torch
import torch.nn as nn

def test():
	linear = nn.Linear(in_feature=6,out_feature=4)
	nn.init.zeros_(linear.weight)
	
	print(linear.weight)
	
if __name__ == "main":
	test()

然后还有全1初始化就没必要再写一遍了。

任意常数初始化

import torch
import torch.nn as nn


def test002():
    # 2. 固定值参数初始化
    linear = nn.Linear(in_features=6, out_features=4)
    # 初始化权重参数
    nn.init.constant_(linear.weight, 0.63)
    # 打印权重参数
    print(linear.weight)
    pass


if __name__ == "__main__":
    test002()

防止了参数为0的情况出现,但是运用在权重上依旧避免不了破坏对称性的问题。

随机初始化

最基本的初始化方式,避免破坏对称性

import torch
import torch.nn as nn


def test001():
    # 1. 均匀分布随机初始化
    linear = nn.Linear(in_features=6, out_features=4)
    # 初始化权重参数
    nn.init.uniform_(linear.weight)
    # 打印权重参数
    print(linear.weight)


if __name__ == "__main__":
    test001()

Xavier初始化

也叫做Glorot初始化。

方法:根据输入和输出神经元的数量来选择权重的初始值。权重从以下分布中采样:
W ∼ U ( − 6 n i n + n o u t , 6 n i n + n o u t ) W\sim\mathrm{U}\left(-\frac{\sqrt{6}}{\sqrt{n_\mathrm{in}+n_\mathrm{out}}},\frac{\sqrt{6}}{\sqrt{n_\mathrm{in}+n_\mathrm{out}}}\right) WU(nin+nout 6 ,nin+nout 6 )
或者
W ∼ N ( 0 , 2 n i n + n o u t ) W\sim\mathrm{N}\left(0,\frac{2}{n_\mathrm{in}+n_\mathrm{out}}\right) WN(0,nin+nout2)

N ( 0 , std 2 ) N ( 0 , std 2 ) \mathcal{N}(0, \text{std}^2)\mathcal{N}(0, \text{std}^2) N(0,std2)N(0,std2)

其中 n in n_{\text{in}} nin 是当前层的输入神经元数量, n out n_{\text{out}} nout是输出神经元数量。

优点:平衡了输入和输出的方差,适合Sigmoid和 Tanh 激活函数。

应用场景:常用于浅层网络或使用Sigmoid、Tanh 激活函数的网络。

import torch
import torch.nn as nn


def test007():
    # Xavier初始化:正态分布
    linear = nn.Linear(in_features=6, out_features=4)
    nn.init.xavier_normal_(linear.weight)
    print(linear.weight)

    # Xavier初始化:均匀分布
    linear = nn.Linear(in_features=6, out_features=4)
    nn.init.xavier_uniform_(linear.weight)
    print(linear.weight)


if __name__ == "__main__":
    test007()

二、激活函数

就我自己的理解来是,进入每个神经元时,就是一次线性变换再输出给下一个神经元的时候则是通过非线性变化的激活函数来提高数据的分离度,而如果不设置激活函数也是能传递的,只是他始终进行的线性的变化,而线性数据的一个缺点就是无法表示复杂的非线性的关系,如异或问题。而引入激活函数的优点还有

  1. 通过升维来提取更改层次的抽象特征
  2. 控制输出值的范围,稳定梯度传播
  3. 动态调整神经元的激活状态,增强表达能力
  4. 实现逼近任意复杂函数的能力

下面是常用的激活函数,

  1. 常见激活函数
    • Sigmoid:将输出映射到 (0,1)(0, 1)(0,1),适合二分类输出层;易出现梯度消失。
    • Tanh:将输出映射到 (−1,1)(-1, 1)(−1,1),适合隐藏层,梯度较大,缓解梯度消失问题。
    • ReLU:输出正值本身,负值为零,计算简单,适合深层网络;存在神经元死亡问题。
    • Leaky ReLU:改进 ReLU,为负值引入小斜率,避免神经元死亡。
    • Softmax:将输出映射为概率分布,适合多分类任务的输出层。
  2. 选择建议
    • 隐藏层优先选择 ReLU 或其变体。
    • 输出层根据任务选择:二分类用 Sigmoid,多分类用 Softmax,回归任务用线性激活。

由于激活函数的公式过多,就不说了。

三、损失函数

这里的损失函数与之前学习反向传播时的概念无差异,只是根据不同的任务推出了不同损失函数去更好的适配这些任务的回归。

  1. 线性回归损失

    • MAE:平均绝对误差,对异常值鲁棒。
    • MSE:均方误差,对大误差敏感。
    • Smooth L1:结合 MAE 和 MSE 的优点,平滑过渡。
  2. 分类损失

    • 交叉熵损失:

      • 多分类问题与 Softmax 搭配。
      • 衡量预测分布与真实分布的差异。
    • 二分类交叉熵:

      • 二分类问题与 Sigmoid 搭配。
      • 用于衡量模型对两个类别的预测效果。
  3. 总结

    • 回归任务:MSE、Smooth L1。
    • 二分类任务:Sigmoid + 二分类交叉熵。
    • 多分类任务:Softmax + 交叉熵。

反向传播的api实现

由于上面所有的都是为了反向传播而服务,所以单论以上的所有都是理论上的,只有在神经网络中实现反向传播才会真正的运用到上面所有的知识。

import torch
import torch.nn as nn
import torch.optim as optim


class Net(nn.Module):

    def __init__(self):
        super(Net, self).__init__()
        self.linear1 = nn.Linear(2, 2)
        self.linear2 = nn.Linear(2, 2)

        # 网络参数初始化
        self.linear1.weight.data = torch.tensor([[0.15, 0.20], [0.25, 0.30]])
        self.linear2.weight.data = torch.tensor([[0.40, 0.45], [0.50, 0.55]])
        self.linear1.bias.data = torch.tensor([0.35, 0.35])
        self.linear2.bias.data = torch.tensor([0.60, 0.60])

    def forward(self, x):

        x = self.linear1(x)
        x = torch.sigmoid(x)
        x = self.linear2(x)
        x = torch.sigmoid(x)

        return x


if __name__ == "__main__":

    inputs = torch.tensor([[0.05, 0.10]])
    target = torch.tensor([[0.01, 0.99]])

    # 获得网络输出值
    net = Net()
    output = net(inputs)

    # 计算误差
    loss = torch.sum((output - target) ** 2) / 2

    # 优化方法
    optimizer = optim.SGD(net.parameters(), lr=0.5)

    # 梯度清零
    optimizer.zero_grad()

    # 反向传播
    loss.backward()

    # 打印(w1-w8)观察w5、w7、w1 的梯度值是否与手动计算一致
    print(net.linear1.weight.grad.data)
    print(net.linear2.weight.grad.data)

    #更新梯度
    optimizer.step()
   
    # 打印更新后的网络参数
    print(net.state_dict())

这个程序中没有用到上面说到的这些初始化,而是自定义传参初始化。