经典灰狼算法+编码器+双向长短期记忆神经网络,GWO-Transformer-BiLSTM多变量回归预测,作者:机器学习之心!
效果一览
基本介绍
代码主要功能
该代码实现了一个基于灰狼优化算法(GWO)的Transformer-BiLSTM混合神经网络回归预测模型,核心功能包括:
- 数据预处理:导入数据、随机打乱、划分训练/测试集、归一化处理。
- 超参数优化:使用灰狼算法自动优化学习率、批大小和L2正则化系数。
- 混合模型构建:结合Transformer的自注意力机制和BiLSTM的序列建模能力。
- 训练与预测:训练优化后的模型,并在训练集/测试集上进行预测。
- 性能评估:计算RMSE、R²、MAE、MAPE、MBE、MSE等评估指标。
- 可视化分析:绘制预测对比图、误差分布图及线性拟合图。
算法步骤 - 初始化环境
• 清空变量、关闭图窗、计时开始。 - 数据加载与预处理
• 从Excel读取数据,随机打乱样本顺序。
• 按7:3比例划分训练集/测试集。
• 使用mapminmax归一化数据到[0,1]区间。 - 灰狼优化(GWO)超参数
• 优化参数:学习率(lr)、批大小(batch_size)、L2正则化系数(L2)。
• 搜索空间:
• lr ∈ [0.001, 0.1]
• batch_size ∈ [32, 128]
• L2 ∈ [0.001, 0.1]
• 优化目标:通过fical.m函数评估模型性能(需自定义)。 - 构建混合模型
[输入层]→[位置嵌入层]→[ADD连接层]→
[自注意力层(Causal Mask)]→[自注意力层]→
[BiLSTM层]→[ReLU]→[Dropout]→[全连接层]→[回归层] - 模型训练与预测
• 使用Adam优化器训练200个Epoch。
• 学习率分段下降(50轮后衰减50%)。
• 对训练集/测试集进行预测并反归一化。 - 性能评估与可视化
• 计算多种评估指标(R²、RMSE等)。
• 绘制预测对比曲线、误差直方图、线性拟合散点图。
数据集
程序设计
- 完整程序和数据下载私信博主回复经典灰狼算法+编码器+双向长短期记忆神经网络,GWO-Transformer-BiLSTM多变量回归预测,Matlab代码实现。
.rtcContent { padding: 30px; } .lineNode {font-size: 10pt; font-family: Menlo, Monaco, Consolas, "Courier New", monospace; font-style: normal; font-weight: normal; }
warning off % 关闭报警信息
close all % 关闭开启的图窗
clear % 清空变量
clc % 清空命令行
addpath(genpath('LSSVMlabv'));
%% 导入数据
res =xlsread('data.xlsx','sheet1','A2:H104');
%% 数据分析
num_size = 0.7; % 训练集占数据集比例
outdim = 1; % 最后一列为输出
num_samples = size(res, 1); % 样本个数
res = res(randperm(num_samples), :); % 打乱数据集(不希望打乱时,注释该行)
num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim; % 输入特征维度
%% 划分训练集和测试集
P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);
P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);
%% 数据归一化
[p_train, ps_input] = mapminmax(P_train, 0, 1);
p_test = mapminmax('apply', P_test, ps_input);
[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);
%% 转置以适应模型
p_train = p_train'; p_test = p_test';
t_train = t_train'; t_test = t_test';
参考资料
[1] https://blog.csdn.net/kjm13182345320/article/details/128163536?spm=1001.2014.3001.5502
[2] https://blog.csdn.net/kjm13182345320/article/details/128151206?spm=1001.2014.3001.5502