正如其名,是一种预测的方法,可用于解决众多的预测问题。为什么会叫灰色呢?正如我们计算机领域中有着黑客、白客、灰客,对应不同的法律触及范围,灰色代表一个模糊的地带。灰色预测代表对一个既含已知信息又含未知信息的系统预测。
灰色关联度
这么看可能有点看不懂,那就来看看实例:
参考数列一般取各个指标最优解。
一般取0.5就可以了。
基本流程
数据检验及处理 -> 建立GM模型
1.数据检验及处理
2.建立GM模型
灰色生成数列
在一些原始数据中,其排布形式其实是杂乱无章的无法进行下一步预测。但是如果对数据进行特殊处理,生成有规律的函数后就方便预测了,将预测后的数据进行特殊处理的逆操作就可以得到原始数据的变化规律了。
一般分为三种:
累加和累减生成就是互为逆操作。
灰色模型
总步骤:(看不懂没关系会用就行)
3.残差检验
实际代码用起来还是挺简单的:
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
# 加载数据
file_path = r'D:\Studying Resources\数学建模\01 90多种常用数学建模算法代码汇总!\基础算法\processed_data_with_topsis.xlsx'
data = pd.read_excel(file_path)
# 数据标准化
def normalize(df):
return df / df.max()
# 计算灰色关联度
def grey_relational_coefficient(df, reference=None):
if reference is None:
reference = df.max() # 选取各列的最大值作为参考序列
n_samples, n_features = df.shape
df_normalized = normalize(df)
reference_normalized = normalize(reference)
# 计算关联度
xi = df_normalized.to_numpy()
xr = reference_normalized.to_numpy()
xi_minus_xr = np.abs(xi - xr)
rho = 0.5 # 分辨系数,通常取值为0.5
delta_min = np.min(xi_minus_xr)
delta_max = np.max(xi_minus_xr)
GR = (delta_min + rho * delta_max) / (xi_minus_xr + rho * delta_max)
GR_mean = np.mean(GR, axis=1)
return GR_mean
# 执行灰色关联分析
gra_scores = grey_relational_coefficient(data)
# 添加灰色关联分析得分到原始数据
data['GRA_Score'] = gra_scores
# 可视化灰色关联分析得分
plt.figure(figsize=(10, 6))
plt.bar(data.index, data['GRA_Score'], color='lightgreen')
plt.xlabel('Sample Index')
plt.ylabel('GRA Score')
plt.title('Grey Relational Analysis Scores of Samples')
plt.show()
# 保存结果
output_path = r'scored_data_with_gra.xlsx'
data.to_excel(output_path, index=False)
print("数据已处理并保存至:", output_path)