LSTM-SVM长短期记忆神经网络结合支持向量机组合模型多特征分类预测/故障诊断,适合新手小白研究学习(Matlab完整源码和数据)
分类效果
基本描述
1.Matlab实现LSTM-SVM组合模型多特征分类预测/故障诊断,运行环境Matlab2023b及以上;
2.excel数据,方便替换,输入多个特征,分四类,可在下载区获取数据和程序内容。
3.图很多,包括分类效果图,混淆矩阵图。命令窗口输出分类准确率、灵敏度、特异性、曲线下面积、Kappa系数、F值,及召回率、精确率、F1分数。
4.附赠案例数据可直接运行main一键出图,注意程序和数据放在一个文件夹,运行环境为Matlab2023b及以上。
5.代码特点:参数化编程、参数可方便更改、代码编程思路清晰、注释明细。可在下载区获取数据和程序内容。
6.模型只是提供一个衡量数据集精度的方法,因此无法保证替换数据就一定得到您满意的结果。注:程序和数据放在一个文件夹
模型详细描述
程序首先将原始序列数据输入到LSTM模型中,LSTM模型对数据进行特征提取,最终在全连接层得到具有一定抽象程度的特征表示。然后,将这些全连接层侧特征作为新的输入数据,输入到SVM分类器中进行训练。SVM会根据这些特征学习到一个最优分类超平面,从而实现对待测样本的分类。 这种组合方式具有显著优势。一方面,LSTM能够自动从大量序列数据中提取复杂的时空特征,减少了人工特征工程的复杂性;另一方面,SVM凭借其优秀的分类能力,能够对LSTM提取的特征进行精确分类,提高故障诊断的准确率。通过两者的结合,可以充分发挥各自的优势,实现更高效、准确的故障诊断。LSTM - SVM组合模型包含众多参数,如LSTM层的单元数量、学习率、正则化参数,以及SVM的核函数参数等。这些参数的取值对模型的性能有着至关重要的影响,然而,参数调优过程却充满挑战。一方面,参数众多使得搜索空间极为庞大。另一方面,参数之间可能存在复杂的相互作用,调整一个参数可能会对其他参数产生连锁反应,导致调优过程复杂且难以把控。
程序设计
- 完整代码私信博主回复LSTM-SVM长短期记忆神经网络结合支持向量机组合模型多特征分类预测/故障诊断,适合新手小白研究学习(Matlab完整源码和数据)
%% 清空环境变量
warning off % 关闭报警信息
close all % 关闭开启的图窗
clear % 清空变量
clc % 清空命令行
%% 读取数据
res = xlsread('data.xlsx');
%% 分析数据
num_class = length(unique(res(:, end))); % 类别数(Excel最后一列放类别)
num_dim = size(res, 2) - 1; % 特征维度
num_res = size(res, 1); % 样本数(每一行,是一个样本)
num_size = 0.7; % 训练集占数据集的比例
res = res(randperm(num_res), :); % 打乱数据集(不打乱数据时,注释该行)
flag_conusion = 1; % 标志位为1,打开混淆矩阵(要求2018版本及以上)
%% 设置变量存储数据
P_train = []; P_test = [];
T_train = []; T_test = [];
%% 划分数据集
for i = 1 : num_class
mid_res = res((res(:, end) == i), :); % 循环取出不同类别的样本
mid_size = size(mid_res, 1); % 得到不同类别样本个数
mid_tiran = round(num_size * mid_size); % 得到该类别的训练样本个数
end
%% 清空环境变量
warning off % 关闭报警信息
close all % 关闭开启的图窗
clear % 清空变量
clc % 清空命令行
%% 添加工具箱路径 加载工具箱
addpath("toolbox\")
loadlibrary('lib_lightgbm.dll', 'c_api.h')
%% 导入数据
res = xlsread('数据集.xlsx'); % 四个类别分别用0 1 2 3表示
rand('state',0);
%% 数据分析
num_size = 0.7; % 训练集占数据集比例
outdim = 1; % 最后一列为输出
num_class = length(unique(res(:,end))); % 计算类别数
num_samples = size(res, 1); % 样本个数
res = res(randperm(num_samples), :); % 打乱数据集(不希望打乱时,注释该行)
num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim; % 输入特征维度
%% 划分训练集和测试集
P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);
P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);
%% 数据归一化
[P_train, ps_input] = mapminmax(P_train, 0, 1);
P_test = mapminmax('apply', P_test, ps_input);
%% 矩阵转置
p_train = P_train'; p_test = P_test';
t_train = T_train'; t_test = T_test';
%% 加载数据到 GBM
pv_train = lgbmDataset(p_train);
setField(pv_train, 'label', t_train);
pv_test = lgbmDataset(p_test, pv_train);
setField(pv_test, 'label', t_test);
%% 寻优参数设置
fun = @getObjValue; % 目标函数
dim = 3; % 优化参数个数
lb = [8, 0.1,2]; % 优化参数目标下限[叶子节点数 学习率 树的深度]
ub = [64, 1,10]; % 优化参数目标上限[叶子节点数 学习率 树的深度]
pop = 2; % 搜索数量
Max_iteration = 10; % 优化算法最大迭代次数 一共搜索次数:优化算法最大迭代次数*搜索数量
%% 参数设置
%% 数据反归一化
T_sim1 = vec2ind(t_sim1);
T_sim2 = vec2ind(t_sim2);
% %% 数据排序
% [T_train, index_1] = sort(T_train);
% [T_test , index_2] = sort(T_test );
%
% T_sim1 = T_sim1(index_1);
% T_sim2 = T_sim2(index_2);
%% 性能评价
error1 = sum((T_sim1 == T_train))/M * 100 ;
error2 = sum((T_sim2 == T_test)) /N * 100 ;
%% 绘图
figure()
legend('真实值', '预测值')
xlabel('预测样本')
ylabel('预测结果')
string = {'训练集预测结果对比'; ['准确率=' num2str(error1) '%']};
title(string)
xlim([1, M])
grid
figure
legend('真实值', '预测值')
xlabel('预测样本')
ylabel('预测结果')
string = {'测试集预测结果对比'; ['准确率=' num2str(error2) '%']};
title(string)
xlim([1, N])
grid
%% 混淆矩阵
figure
cm = confusionchart(T_train, T_sim1);
cm.Title = 'Confusion Matrix for Train Data';
cm.ColumnSummary = 'column-normalized';
cm.RowSummary = 'row-normalized';
figure
cm = confusionchart(T_test, T_sim2);
cm.Title = 'Confusion Matrix for Test Data';
cm.ColumnSummary = 'column-normalized';
cm.RowSummary = 'row-normalized';
参考资料
[1] https://blog.csdn.net/kjm13182345320/article/details/129036772?spm=1001.2014.3001.5502
[2] https://blog.csdn.net/kjm13182345320/article/details/128690229