说明:这是一个机器学习实战项目(附带数据+代码+文档+视频讲解),如需数据+代码+文档+视频讲解可以直接到文章最后获取。
1.项目背景
可以使用Lasso回归进行特征选择,尽管它本质上是一个用于回归问题的技术,但通过一些调整,也可以应用于分类问题,尤其是二分类问题。Lasso(Least Absolute Shrinkage and Selection Operator)通过在损失函数中加入L1正则化项来促使模型的系数稀疏化,从而实现特征选择。对于分类任务,通常会结合逻辑回归(Logistic Regression)的思想,这被称为Lasso Logistic Regression或者Logistic Lasso。
本项目通过逻辑回归的L1正则化(Lasso Logistic Regression)进行分类数据的特征选择。
2.数据获取
本次建模数据来源于网络(本项目撰写人整理而成),数据项统计如下:
编号 |
变量名称 |
描述 |
1 |
x1 |
|
2 |
x2 |
|
3 |
x3 |
|
4 |
x4 |
|
5 |
x5 |
|
6 |
x6 |
|
7 |
x7 |
|
8 |
x8 |
|
9 |
x9 |
|
10 |
x10 |
|
11 |
y |
因变量 |
数据详情如下(部分展示):
3.数据预处理
3.1 用Pandas工具查看数据
使用Pandas工具的head()方法查看前五行数据:
关键代码:
3.2数据缺失查看
使用Pandas工具的info()方法查看数据信息:
从上图可以看到,总共有11个变量,数据中无缺失值,共2000条数据。
关键代码:
3.3数据描述性统计
通过Pandas工具的describe()方法来查看数据的平均值、标准差、最小值、分位数、最大值。
关键代码如下:
4.探索性数据分析
4.1 y变量柱状图
用Matplotlib工具的plot()方法绘制柱状图:
4.2 y=1样本x1变量分布直方图
用Matplotlib工具的hist()方法绘制直方图:
4.3 相关性分析
从上图中可以看到,数值越大相关性越强,正值是正相关、负值是负相关。
5.特征工程
5.1 建立特征数据和标签数据
关键代码如下:
5.2 数据集拆分
通过train_test_split()方法按照80%训练集、20%测试集进行划分,关键代码如下:
5.3 数据的归一化
关键代码如下:
6.构建特征选择模型
主要使用逻辑回归的L1正则化(Lasso Logistic Regression)进行分类数据的特征选择。
6.1 构建模型
编号 |
模型名称 |
参数 |
1 |
特征选择模型 |
penalty='l1' |
2 |
solver='liblinear' |
|
3 |
C=0.1 |
7.特征选择
7.1特征系数结果
模型名称 |
特征名称 |
系数值 |
特征选择模型 |
x1 |
0 |
x2 |
9.60022787 |
|
x3 |
-1.005445 |
|
x4 |
0 |
|
x5 |
0 |
|
x6 |
0 |
|
x7 |
0 |
|
x8 |
0 |
|
x9 |
0 |
|
x10 |
0 |
7.2特征选择结果
结果展示如下:
8.结论与展望
综上所述,本文采用了逻辑回归的L1正则化(Lasso Logistic Regression)进行分类数据的特征选择,最终证明了我们提出的模型效果良好。此模型可用于日常产品的建设。
# 本次机器学习项目实战所需的资料,项目资源如下:
# 项目说明:
# 获取方式一:
# 项目实战合集导航:
https://docs.qq.com/sheet/DTVd0Y2NNQUlWcmd6?tab=BB08J2
# 获取方式二:
链接:https://pan.baidu.com/s/1P97Kki89nKLhHqQAucvEnA
提取码:qq3c