在前面几篇关于推荐模型的文章中,笔者均给出了示例代码,有读者反馈——想知道在 TensorFlow 中用户特征和商品特征是如何 Embedding 的?因此,笔者特意写作此文加以解答。
1. 何为 Embedding ?
关于 Embedding,笔者很久之前写过一篇文章《推荐系统(十一):推荐系统中的 Embedding》,现在看来,差强人意,不过,对 Embedding 的概念解读还是不错的,只是缺乏代码案例解读。在本文中,笔者将基于 TensorFlow 来做解读,让读者加深理解。
如下图所示,为一个极简(CTR 和 CVR 共享了交互层) “双塔模型”(详见文章《推荐系统(十五):基于双塔模型的多目标商品召回/推荐系统》),简单解读一下:
- User Feature 和 Item Feature 先经过 Embedding Layer 处理,得到特征的 Embedding;
- User Feature Embedding 和 Item Feature Embedding 经过 Concat Layer 连接后输入到 DNN 网络;这样直接 Concat 得到的 Embedding 结果被称为 User 和 Item 的 “表示(Representation)”,显然,这种 “表示” 比较粗糙;
- 经过 MLP 处理,得到 User Vector 和 Item Vector,相较于上一步的 “表示形式”,User Vector 和 Item Vector 要 “精细” 得多,是真正意义上的 User Embedding 和 Item Embedding。
- User Embedding 和 Item Embedding 计算内积后经过 Sigmoid 函数处理(即图中的 Prediction),即可得到一个 0~1 之间的数值,即概率。
- 对于商品点击(1-点击,0-未点击)和商品转化(1-转化,0-未转化)这种二分类问题,结合模型预测的概率和样本 Label,很容易计算出损失(二分类问题一般采用交叉墒损失)。
- 对于 CTR 和 CVR 这种多任务场景,需要将 CTR Loss 和 CVR Loss 加权融合作为最终的损失,进而指导训练模型。
2.特征工程中的 Embedding
2.1 ID 类特征
在 User Feature 和 Item Feature 中,User ID 和 Item ID 是最为重点的特征之一,是典型的 “高维稀疏” 特征。直接以原始数据形式输入模型是不行的,必须经过 Embedding Layer 的处理。在此,以 Item ID 为例,Embedding 处理的代码如下:
# 模拟生成商品特征,其中 item_id 取值[1, 10000]
num_items = 10000
item_data = {
'item_id': np.arange(1, num_items + 1),
'item_category': np.random.choice(['electronics', 'books', 'clothing'], size=num_items),
'item_brand': np.random.choice(['brandA', 'brandB', 'brandC'], size=num_items),
'item_price': np.random.randint(1, 199, size=num_items)
}
# 基于 TensorFlow 对原始的 item_id 进行 Embedding 处理,分为两步
item_id = feature_column.categorical_column_with_identity('item_id', num_buckets=num_items)
item_id_emb = feature_column.embedding_column(item_id, dimension=8)
1. 分类列的创建:categorical_column_with_identity
item_id = feature_column.categorical_column_with_identity('item_id', num_buckets=num_items)
- 功能:将输入的整数 item_id 直接映射为分类标识。例如,若 num_items=1000,则输入的 item_id 必须是 [0,
1, 2, …, 999] 范围内的整数。 - 本质:这类似于对 item_id 做 One-Hot 编码(但底层实现更高效,不显式生成稀疏矩阵)。
2.嵌入列的创建:embedding_column
item_id_emb = feature_column.embedding_column(item_id, dimension=8)
- 功能:将高维稀疏的分类 ID(如 num_items=1000 维的 One-Hot 向量)映射到低维稠密的连续向量空间(维度为 8)。
- 关键点:嵌入矩阵的维度是 [num_items, 8],即每个 item_id 对应一个 8 维向量。这个嵌入矩阵是一个可训练参数,初始值随机(如 Glorot 初始化),通过神经网络的反向传播逐步优化。
3.嵌入向量的训练过程
- 何时生成:嵌入矩阵的值并非预先计算,而是在模型训练时动态学习。
- 如何学习:
1-输入数据中的 item_id 会触发嵌入层查找对应的 8 维向量。
2-在反向传播时,优化器(如Adam)根据损失函数的梯度调整嵌入矩阵的值。
3-模型通过最小化损失函数,迫使相似的 item_id 在嵌入空间中靠近,从而捕捉潜在语义关系(如用户行为中的物品相似性)。
4. 嵌入层的底层实现
当你在模型中调用 item_id_emb 时,TensorFlow 会隐式完成以下操作:
# 伪代码解释
embedding_matrix = tf.Variable( # 可训练参数
initial_value=tf.random.uniform([num_items, 8]),
name="item_id_embedding"
)
# 根据输入的item_id查找嵌入向量
item_id_emb = tf.nn.embedding_lookup(embedding_matrix, input_item_ids)
5. 嵌入的优势
- 降维:将高维稀疏特征压缩为低维稠密向量(例如从1000 维的 One-Hot 降到 8 维)。
- 语义学习:模型自动学习嵌入空间中的几何关系(如相似物品的向量距离更近)。
- 泛化性:即使某些 item_id 在训练数据中出现次数少,其嵌入向量仍可通过相似物品的梯度更新得到合理表示。
6. 完整流程示例
假设你的模型是一个推荐系统,处理流程如下:
- 输入层:接收原始特征(如 {‘item_id’: 5})。
- 特征转换:通过 item_id_emb 将 item_id=5 转换为一个 8 维向量。
- 神经网络:将嵌入向量输入全连接层(如 DNN)、激活函数等后续结构。
- 训练:通过损失函数(如点击率预测的交叉熵)反向传播,更新嵌入矩阵和其他权重。
2.2 类别特征
以用户性别为例:
# 模拟生成用户特征,其中用户性别是可以枚举的类别特征:male,female
user_data = {
'user_id': np.arange(1, num_users + 1),
'user_age': np.random.randint(18, 65, size=num_users),
'user_gender': np.random.choice(['male', 'female'], size=num_users),
'user_occupation': np.random.choice(['student', 'worker', 'teacher'], size=num_users),
'city_code': np.random.randint(1, 2856, size=num_users), # 城市编码,中国有 2856 个城市
'device_type': np.random.randint(0, 5, size=num_users) # 设备类型(0=Android,1=iOS等)
}
# 对性别特征进行 Embedding 处理
user_gender = feature_column.categorical_column_with_vocabulary_list(
'user_gender', ['male', 'female'])
user_gender_emb = feature_column.embedding_column(user_gender, dimension=2)
1. 定义分类特征列
代码如下:
user_gender = feature_column.categorical_column_with_vocabulary_list(
'user_gender', ['male', 'female'])
- 作用:将字符串类型的性别特征(如 ‘male’ 或 ‘female’)映射为整数索引。
- 细节: 输入特征名为 ‘user_gender’,词汇表为 [‘male’, ‘female’]。 模型会根据词汇表将 ‘male’ 编码为
0,‘female’ 编码为 1。 如果输入的值不在词汇表中(如 ‘unknown’),默认会被映射为 -1(可通过
num_oov_buckets 参数调整)。
2. 创建嵌入列(Embedding Column)
如下代码:
user_gender_emb = feature_column.embedding_column(user_gender, dimension=2)
- 作用:将稀疏的整数索引转换为密集的低维向量(嵌入向量)。
- 细节:
1.嵌入矩阵的维度:嵌入矩阵的形状为 (vocab_size, embedding_dimension),即 (2, 2)。 行数 2:对应词汇表中的两个类别(male 和 female);列数 2:指定的嵌入维度 dimension=2。
2.嵌入初始化:嵌入向量的初始值默认通过随机均匀分布生成(可通过 initializer 参数自定义)。
3.训练过程:嵌入向量会在模型训练时通过反向传播自动优化,学习与任务相关的语义表示。
2.3 数值特征
数值特征是一种简单的特征,按照常理,可以直接用原始数据进行模型训练和预测,然而,由于不同类型的数值特征存在 “量纲差异”,从而使得不同类型的数值特征 “不可比较”(如年龄数值区间(0~150),价格区间(0~10000000)),因此,数值特征也需要处理,比如标准化/归一化,好处如下:
- 统一特征尺度,避免梯度下降因不同特征量纲而震荡。
- 所有特征在相同尺度下,模型权重更新更均衡。
- L1/L2正则化对所有特征施加相似强度的惩罚。
以用户年龄为例:
scaler_age = StandardScaler()
df['user_age'] = scaler_age.fit_transform(df[['user_age']])
user_age = feature_column.numeric_column('user_age')
1. 数据标准化处理
代码如下:
scaler_age = StandardScaler()
- 作用:创建一个标准化处理器,用于对数值型特征(如年龄)进行均值方差标准化(Z-Score标准化)。
- 细节:StandardScaler 是 scikit-learn 库中的标准化工具,核心操作为:标准化值 =(原始值−均值)/ 标准差 标准化后,数据分布均值为 0,标准差为 1,消除量纲差异。适用于数值范围大、分布不均衡的特征(如年龄范围可能从 0 到 100)。
2.应用标准化到年龄列
代码如下:
df['user_age'] = scaler_age.fit_transform(df[['user_age']])
- 作用:对 DataFrame 中的 user_age 列进行拟合和转换,实现标准化。
- 细节:
1. fit_transform 两步合并。fit:计算 user_age 列的均值(μ)和标准差(σ)。transform:使用公式:(X−μ)/ σ,对所有样本进行标准化。
2. 示例:假设原始年龄数据为 [20, 30, 40],均值为 30,标准差为 8.16,标准化后为 [-1.22, 0, 1.22]。
3. 存储参数:scaler_age 对象会保存计算出的 μ 和 σ,便于后续对新数据(如测试集)使用 transform 而非重新拟合。
3.创建数值特征列
代码如下:
user_age = feature_column.numeric_column('user_age')
- 作用:定义 TensorFlow 模型可接收的数值型特征列,将标准化后的年龄值直接输入模型。
- 细节:
1. 输入数据类型:该列接收的是连续数值(如标准化后的 -1.22、0、1.22)。
2. 模型中的处理:在训练时,每个样本的 user_age 值会以浮点数形式直接传递给神经网络,无需进一步编码。
3. 参数扩展性: 可结合其他参数增强特征(例如 normalizer_fn 可添加自定义归一化,但此处已提前标准化,通常不再需要)。