疏老师-python训练营-Day43复习日

发布于:2025-08-13 ⋅ 阅读:(19) ⋅ 点赞:(0)

@浙大疏锦行

作业:

kaggle找到一个图像数据集,用cnn网络进行训练并且用grad-cam做可视化

进阶:并拆分成多个文件

一.知识点的复习

在传统的机器学习中咱们也有增强,有ros有smote,但是深度学习并不一样。

接下来开始看代码,可以看到训练集确实多好几行。

在下图中,我把老师代码的True,改成了False,因为我已经有这个数据集了。

来到CNN模型

再学习CNN模型也就是老师的计算机视觉讲义之前,我去看了一个十五分钟左右的视频,很生动对于理解一级棒。以下是我的理解,并且豆包给我补充了一下。

而且需要注意,有一个东西叫输出通道,我当时和老师文档里的output_size搞混了,导致我看不懂代码。输出通道等于卷积核的数量而且是一个超参数,而不是输出尺寸。

现在开始看CNN模型代码

然后我看到第二个卷积,它的输入通道数尽然是32难道不是16吗,当然不是啊。那是因为我不清楚池化层的作用,看一下豆包的解析。明白了所谓的池化并不会缩减通道数而是会压缩图片的输出尺寸。

接下里继续看,卷积第2层的代码

接下来开始看全连接层的代码

看一下前向函数

接下来学习batch归一化

这个特征图day42有讲

调度器的学习

代码理解

对于该段代码,生动的理解一下

理解一下下图红框内的代码

对于data和target可以理解为

学习一下学习率调度器的实际使用

最后是画图,会发现plot_epoch_metrics里面有下图红框里的代码,但是plot_iter_losses也是画图却没有这一行,其实很简单。看下面两张图的红框和豆包老师的解释就行。

好了对于day41的逐行复习代码(或者说重学一遍)结束啦。接下来开始day42的hook函数和中间过程可视化复习

DAY42

先看一下到底什么是中间层

接下来开始学习hook函数。

接下来学习装饰器(下图),这一个好难理解,咱们之前学习过的装饰器在下下图(很简单)。看一下显而易见的区别(在下下图有写)。

然后是lambda函数的学习,很简单,过。

然后是hook函数和后续的中间层可视化的学习

然后注意本段代码

然后看这段代码的运行结果,要是经过全连接层都展平了,形状不长这样。

然会咱们可以看一下这个list的尺寸,发现只有一个元素,这个元素是个张量。

理解这段代码

二.

我今天不做这个作业了,我要好好地花时间把cnn卷积神经网络流程再学习一遍,再学习hook函数(这些概念不是很好理解),我从8月头开始还要学习matlab的编程和基础的专业知识不能把精力全部投放在深度学习领域上了,所以对于cnn领域学的不好,导致我hook函数也不太理解。今天重新学习这两节内容。day42还有反向钩子没弄完,再开一页弄,我先提交了。