第R3周:RNN-心脏病预测(Tensorflow实现)

发布于:2025-03-21 ⋅ 阅读:(12) ⋅ 点赞:(0)
  • 语言环境:Python3.8
  • 编译器:Jupyter Lab
  • 深度学习环境:
    • tensorflow==2.18.0+cuda

目录

 1. 前期准备

1.1设置GPU

1.2 导入数据

1.3 检查数据

2. 数据预处理

2.1 划分训练集与测试集

2.2 标准化

3. 构建RNN模型

4. 编译模型

5. 训练模型

​6. 评估模型


 1. 前期准备

1.1设置GPU

import tensorflow   as tf

gpus = tf.config.list_physical_devices("GPU")

if gpus:
    gpu0 = gpus[0]                                        #如果有多个GPU,仅使用第0个GPU
    tf.config.experimental.set_memory_growth(gpu0, True)  #设置GPU显存用量按需使用
    tf.config.set_visible_devices([gpu0],"GPU")
    
gpus

1.2 导入数据

import pandas as pd
import numpy as np

df = pd.read_csv("heart.csv")
df

1.3 检查数据

# 检查是否有空值
df.isnull().sum()

2. 数据预处理

2.1 划分训练集与测试集

from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import train_test_split

X = df.iloc[:,:-1]
y = df.iloc[:,-1]
X_train,X_test,y_train,y_test = train_test_split(X,y,test_size = 0.1,random_state = 1)
X_train.shape,y_train.shape

2.2 标准化

# 将每一列特征值标准化为正太分布,注意,标准化是针对每一列而言的
sc = StandardScaler()
X_train = sc.fit_transform(X_train)
X_test = sc.transform(X_test)

X_train = X_train.reshape(X_train.shape[0],X_train.shape[1],1)
X_test = X_test.reshape(X_test.shape[0],X_test.shape[1],1)

3. 构建RNN模型

import tensorflow 
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense,LSTM,SimpleRNN

model = Sequential()
model.add(SimpleRNN(200,input_shape=(13,1),activation='relu'))
model.add(Dense(100,activation='relu'))
model.add(Dense(1,activation='sigmoid'))
model.summary()

4. 编译模型

opt = tf.keras.optimizers.Adam(learning_rate=1e-4)

model.compile(loss = 'binary_crossentropy',
             optimizer=opt,
             metrics="accuracy")

5. 训练模型

epochs = 100

history = model.fit(X_train,
                    y_train,
                   epochs=epochs,
                   batch_size=128,
                   validation_data=(X_test,y_test),
                   verbose=1)

6. 评估模型

import matplotlib.pyplot as plt

acc = history.history['accuracy']
val_acc = history.history['val_accuracy']

loss = history.history['loss']
val_loss = history.history['val_loss']

epochs_range = range(epochs)

plt.figure(figsize=(12, 4))
plt.subplot(1, 2, 1)
plt.plot(epochs_range, acc, label='Training Accuracy')
plt.plot(epochs_range, val_acc, label='Validation Accuracy')
plt.legend(loc='lower right')
plt.title('Training and Validation Accuracy')

plt.subplot(1, 2, 2)
plt.plot(epochs_range, loss, label='Training Loss')
plt.plot(epochs_range, val_loss, label='Validation Loss')
plt.legend(loc='upper right')
plt.title('Training and Validation Loss')
plt.show()

scores = model.evaluate(X_test,y_test,verbose=0)
print("%s: %.2f%%" % (model.metrics_names[1],scores[1]*100))

总结:

从上图结果中我们可以看出:

左图:训练与验证准确率
训练集的准确率(蓝色线):随着训练次数增加,呈现出平稳上升趋势,最终接近0.92左右,说明模型在训练数据上的拟合效果逐渐变好。
验证集的准确率(橙色线):一开始随着训练迭代次数增加,验证准确率也在提升,但在约25次迭代后,准确率趋于平稳,甚至有一些波动,特别在60次之后,表现出明显的下降和上升不稳定现象。

右图:训练与验证损失
训练集损失(蓝色线):损失随着迭代次数逐渐下降,这表明模型在训练集上不断优化,误差减少。
验证集损失(橙色线):最开始也在下降,但在大约20次迭代后开始变得平缓,甚至损失值开始回弹。这与验证集准确率下降的现象一致,暗示模型在验证集上的表现没有持续改进。