TensorFlow_T8 猫狗识别

发布于:2024-11-28 ⋅ 阅读:(14) ⋅ 点赞:(0)

目录

一、前言

二、前期准备

1、设置GPU

2、导入数据

三、数据预处理

1、加载数据

2、再次检查数据

3、配置数据集

4、可视化数据

四、构建VG-16网络

1、VGG优缺点分析

 五、编译

六、训练模型

七、模型评估

八、预测


一、前言

二、前期准备

1、设置GPU

import tensorflow as tf
 
gpus=tf.config.list_physical_devices("GPU")
 
if gpus:
    tf.config.experimental.set_memory_growth(gpus[0],True)
    tf.config.set_visible_devices([gpus[0]],"GPU")
    
#打印显卡信息,确认GPU可用
print(gpus)

2、导入数据

import warnings
warnings.filterwarnings('ignore')
 
import pathlib
data_dir="D:\THE MNIST DATABASE\T8"
data_dir=pathlib.Path(data_dir)
 
image_count=len(list(data_dir.glob('*/*')))
 
print("图片总数为:",image_count)

运行结果如下:

三、数据预处理

1、加载数据

使用image_dataset_from_directory方法将磁盘中的数据加载到tf.data.Dataset中;

加载训练集:

train_ds=tf.keras.preprocessing.image_dataset_from_directory(
    data_dir,
    validation_split=0.2,
    subset="training",
    seed=12,image_size=(224,224),
    batch_size=8
)

运行结果如下:

加载验证集:

val_ds=tf.keras.preprocessing.image_dataset_from_directory(
    data_dir,
    validation_split=0.2,
    subset="validation",
    seed=12,
    image_size=(224,224),
    batch_size=8
)

运行结果如下:

通过class_names输出数据集的标签。标签将按字母顺序对应于目录名称;

class_names=train_ds.class_names
print(class_names)

运行结果如下:

2、再次检查数据

for image_batch,labels_batch in train_ds:
    print(image_batch.shape)
    print(labels_batch.shape)
    break

运行结果如下:

  • Image_batch是形状的张量(8, 224, 224, 3)。这是一批形状224x224x3的8张图片(最后一维指的是彩色通道RGB)。
  • Label_batch是形状(8,)的张量,这些标签对应8张图片;

3、配置数据集

shuffle() : 打乱数据;
prefetch() :预取数据,加速运行;
cache() :将数据集缓存到内存当中,加速运行;

AUTOTUNE=tf.data.AUTOTUNE
 
def preprocess_image(image,label):
    return (image/255.0,label)
 
#归一化处理
train_ds=train_ds.map(preprocess_image,num_parallel_calls=AUTOTUNE)
val_ds=val_ds.map(preprocess_image,num_parallel_calls=AUTOTUNE)
 
train_ds=train_ds.cache().shuffle(1000).prefetch(buffer_size=AUTOTUNE)
val_ds=val_ds.cache().prefetch(buffer_size=AUTOTUNE)

4、可视化数据

import matplotlib.pyplot as plt
 
plt.figure(figsize=(15,10))
 
for images,labels in train_ds.take(1):
    for i in range(8):
        
        ax=plt.subplot(5,8,i+1)
        plt.imshow(images[i])
        plt.title(class_names[labels[i]])
        
        plt.axis("off")

运行结果如下:

   

四、构建VG-16网络

1、VGG优缺点分析

(1)VGG优点
VGG的结构非常简洁,整个网络都使用了同样大小的卷积核尺寸(3x3)和最大池化尺寸(2x2);

(2)VGG缺点
1)训练时间过长,调参难度大;

2)需要的存储容量大,不利于部署。例如存储VGG-16权重值文件的大小为500多MB,不利于安装到嵌入式系统中;

结构说明:

●13个卷积层(Convolutional Layer),分别用blockX_convX表示;
●3个全连接层(Fully connected Layer),分别用fcX与predictions表示;
●5个池化层(Pool layer),分别用blockX_pool表示;

VGG-16包含了16个隐藏层(13个卷积层和3个全连接层),故称为VGG-16;

from tensorflow.keras import layers,models,Input
from tensorflow.keras.models import Model
from tensorflow.keras.layers import Conv2D,MaxPooling2D,Dense,Flatten,Dropout
 
def vgg16(nb_classes,input_shape):
    input_tensor=Input(shape=input_shape)
    #1st block
    x=Conv2D(64,(3,3),activation='relu',padding='same')(input_tensor)
    x=Conv2D(64,(3,3),activation='relu',padding='same')(x)
    x=MaxPooling2D((2,2),strides=(2,2))(x)
    #2nd block
    x=Conv2D(128,(3,3),activation='relu',padding='same')(x)
    x=Conv2D(128,(3,3),activation='relu',padding='same')(x)
    x=MaxPooling2D((2,2),strides=(2,2))(x)
    #3rd block
    x=Conv2D(256,(3,3),activation='relu',padding='same')(x)
    x=Conv2D(256,(3,3),activation='relu',padding='same')(x)
    x=Conv2D(256,(3,3),activation='relu',padding='same')(x)
    x=MaxPooling2D((2,2),strides=(2,2))(x)
    #4th block
    x=Conv2D(512,(3,3),activation='relu',padding='same')(x)
    x=Conv2D(512,(3,3),activation='relu',padding='same')(x)
    x=Conv2D(512,(3,3),activation='relu',padding='same')(x)
    x=MaxPooling2D((2,2),strides=(2,2))(x)
    #5th block
    x=Conv2D(512,(3,3),activation='relu',padding='same')(x)
    x=Conv2D(512,(3,3),activation='relu',padding='same')(x)
    x=Conv2D(512,(3,3),activation='relu',padding='same')(x)
    x=MaxPooling2D((2,2),strides=(2,2))(x)
    #full connection
    x=Flatten()(x)
    x=Dense(1024,activation='relu')(x)
    x=Dense(108,activation='relu')(x)
    output_tensor=Dense(nb_classes,activation='softmax')(x)
    
    model=Model(input_tensor,output_tensor)
    return model
 
model=vgg16(1000,(224,224,3))
model.summary()

运行结果如下:

   

   

 五、编译

在准备对模型进行训练之前,还需要再对其进行一些设置。以下内容是在模型的编译步骤中添加的:

  • 损失函数(loss):用于衡量模型在训练期间的准确率;
  • 优化器(optimizer):决定模型如何根据其看到的数据和自身的损失函数进行更新;
  • 评价函数(metrics):用于监控训练和测试步骤。以下示例使用了准确率,即被正确分类的图像的比率;
model.compile(optimizer="adam",
              loss='sparse_categorical_crossentropy',
              metrics=['accuracy']
)

六、训练模型

tqdm的原型是通过包裹可迭代对象来显示进度条,提供实时的进度更新和定制化的展示信息

1、基本参数
(1)iterable:必须提供的参数,指定要迭代的对象;
(2)desc:进度条的描述文字,默认为None,用于在进度条前显示自定义的前缀;
(3)total:总的迭代次数,用于计算进度百分比,默认为None;
2、输出控制参数
(1)leave:控制进度条完成后是否保留,默认为True;
(2)file:指定输出进度条信息的文件对象,默认为sys.stderr;
(3)ncols:进度条的总宽度,即显示的字符数,默认为None,自动调整宽度;
3、进度条外观参数
(1)bar_format:自定义进度条的格式,默认为 "{desc}: {percentage:3.0f}%|{bar}| {n_fmt}/{total_fmt}";
(2)unit:进度条的单位名称,默认为"it";
(3)unit_scale:控制是否自动缩放单位,取值为True或False,默认为False;
4、动态调整参数
(1)dynamic_ncols:控制是否动态调整进度条宽度以适应终端大小,默认为False;
(2)smoothing:控制平滑进度条的更新,取值范围0到1,默认为0.3;

5、更新频率控制参数
(1)mininterval:最小更新间隔时间(秒),默认为0.1;
(2)maxinterval:最大更新间隔时间(秒),默认为10;
(3)miniters:最小更新次数,用于控制进度条的更新频率,默认为1;
6、其他选项参数
(1)ascii:控制是否使用ASCII字符显示进度条,默认为False;
(2)disable:控制是否禁用进度条,默认为False;

import time
from tqdm import tqdm
 
def action():
    time.sleep(0.5)
with tqdm(total=5000, desc='test', leave=True, ncols=100, unit='B', unit_scale=True) as pbar:
    for i in range(10):
        # sleep 0.5秒
        action()
        # 更新sleep进度
        pbar.update(500)

运行结果如下:

   

train_on_batch函数的原型是

train_on_batch(x, y=None,sample_weight=None,class_weight=None,

reset_metrics=True,return_dict=False)

1、参数说明
(1)x:这是必须提供的参数,指代模型的输入数据。如果模型只有一个输入,那么x可以是一个numpy数组;如果模型有多个输入,那么x应该是一个numpy数组的列表。当模型的输入被命名时,x还可以是一个字典,将输入名称映射到对应的numpy数组;
(2)y:这是可选参数,用于指定模型的目标(标签)数据。对于单输出模型,y是一个numpy数组;对于多输出模型,y是numpy数组的列表。与x类似,如果模型的输出层被命名,y也可以是一个字典,将输出层的名称映射到对应的numpy数组;
(3)sample_weight:这是可选参数,用于指定mini-batch中每个样本的权重。该参数接受一个形状为(batch_size)的数组,这些权重会被应用于每个样本的模型损失。在处理时间序列数据的情况下,可以传递一个形状为(samples, sequence_length)的二维数组,以对每个样本的每个时间步应用不同的权重。此时需要在编译模型时指定sample_weight_mode="temporal";
(4)class_weight:这是可选参数,用于在损失函数中为不同类别指定不同的权重,特别适用于处理类别不平衡的情况。该参数接受一个字典,将类索引(整数)映射到权重(浮点数),从而在训练期间对来自代表性不足类的样本进行重点关注;

(5)reset_metrics:这是可选参数,默认值为True。当设置为True时,返回的度量值仅针对当前的mini-batch。如果设置为False,度量值会在各个批次之间累积。这在需要监控跨批次的度量值时非常有用;
(6)return_dict:这是可选参数,默认为False。当设置为False时,train_on_batch返回一个标量或标量列表,具体取决于模型的输出数量和度量数量。如果设置为True,则train_on_batch返回一个字典,其中包含loss和所有度量的名称及其相应的值。这个参数在需要以结构化方式处理多个输出结果时非常有用;

开始训练模型

from tqdm import tqdm
import tensorflow.keras.backend as K
 
epochs=10
lr=1e-4
 
#记录训练数据,方便后面的分析
history_train_loss=[]
history_train_accuracy=[]
history_val_loss=[]
history_val_accuracy=[]
 
for epoch in range(epochs):
    train_total=len(train_ds)
    val_total=len(val_ds)
    
    """
    total:预期迭代数目
    ncols:控制进度条宽度
    mininterval:进度更新最小间隔,以秒为单位(默认值:0.1)
    """
    with tqdm(total=train_total,desc=f'Epoch {epoch+1}/{epochs}',mininterval=1,ncols=100) as pbar:
        
        lr=lr*0.92
        K.set_value(model.optimizer.lr,lr)
        
        for image,label in train_ds:
            """
            训练模型,简单理解train_on_batch就是:它是比model.fit()%更高级的一个用法
            """
            history=model.train_on_batch(image,label)
            
            train_loss=history[0]
            train_accuracy=history[1]
            
            pbar.set_postfix({"loss":"%.4f"%train_loss,
                              "accuracy":"%.4f"%train_accuracy,
                              "lr":K.get_value(model.optimizer.lr)})
            pbar.update(1)
        history_train_loss.append(train_loss)
        history_train_accuracy.append(train_accuracy)
        
    print('开始验证!')
    
    with tqdm(total=val_total,desc=f'Epoch {epoch+1}/{epochs}',mininterval=0.3,ncols=100) as pbar:
        
        for image,label in val_ds:
            
            history=model.test_on_batch(image,label)
            
            val_loss=history[0]
            val_accuracy=history[1]
            
            pbar.set_postfix({"loss":"%.4f"%val_loss,
                              "accuracy":"%.4f"%val_accuracy})
            pbar.update(1)
        history_val_loss.append(val_loss)
        history_val_accuracy.append(val_accuracy)
    
    print('结束验证!')
    print("验证loss为:%.4f"%val_loss)
    print("验证准确率为:%.4f"%val_accuracy)

 运行结果如下:

  

七、模型评估

epochs_range = range(epochs)
 
plt.figure(figsize=(14, 4))
plt.subplot(1, 2, 1)
 
plt.plot(epochs_range, history_train_accuracy, label='Training Accuracy')
plt.plot(epochs_range, history_val_accuracy, label='Validation Accuracy')
plt.legend(loc='lower right')
plt.title('Training and Validation Accuracy')
 
plt.subplot(1, 2, 2)
plt.plot(epochs_range, history_train_loss, label='Training Loss')
plt.plot(epochs_range, history_val_loss, label='Validation Loss')
plt.legend(loc='upper right')
plt.title('Training and Validation Loss')
plt.show()

运行结果如下:

   

八、预测

import numpy as np
 
#采用加载的模型来看预测结果
plt.figure(figsize=(18,3)) #图形的宽为18高为3
plt.rcParams['font.sans-serif']=['SimHei'] #用来正常显示中文标签
plt.rcParams['axes.unicode_minus']=False  #用来正常显示负号
 
for images,labels in val_ds.take(1):
    for i in range(8):
        ax=plt.subplot(1,8,i+1)
        
        #显示图片
        plt.imshow(images[i].numpy())
        
        #需要给图片增加一个维度
        img_array=tf.expand_dims(images[i],0)
        
        #使用模型预测图片中的人物
        predictions=model.predict(img_array)
        plt.title(class_names[np.argmax(predictions)])
        
        plt.axis("off")

运行结果如下:

   


👏觉得文章对自己有用的宝子可以收藏文章并给小编点个赞!

👏想了解更多统计学、数据分析、数据开发、机器学习算法、深度学习等有关知识的宝子们,可以关注小编,希望以后我们一起成长!