深度学习|表示学习|多头注意力在计算时常见的张量维度变换总结|28

发布于:2025-03-26 ⋅ 阅读:(23) ⋅ 点赞:(0)

如是我闻: 以下是多头注意力(Multi-Headed Attention)在计算时常见的张量维度变换总结,帮助理解从输入到输出是如何一步步处理的。为了方便,令:

  • B B B 表示 batch size(批量大小)
  • S S S 表示 sequence length(序列长度)
  • m m m 表示 num_heads(注意力头数)
  • h h h 表示 head_size(每个头的维度)
  • d m o d e l = m × h d_{\mathrm{model}} = m \times h dmodel=m×h 表示模型隐层维度

  1. 输入(queries、keys、values)
    形状 = ( B ,   S ,   d m o d e l ) . \text{形状} = (B,\, S,\, d_{\mathrm{model}}). 形状=(B,S,dmodel).
    在「自注意力」(self-attention)场景下,三者通常是同一个张量;在「交叉注意力」(cross-attention)场景下, queries \texttt{queries} queries keys,   values \texttt{keys, values} keys, values 可能来自不同子网络。

  2. 线性映射( W Q , W K , W V W_Q, W_K, W_V WQ,WK,WV

    • queries \texttt{queries} queries 做线性变换得到 (Q):形状仍为 ( B , S , d m o d e l ) (B, S, d_{\mathrm{model}}) (B,S,dmodel)
    • keys \texttt{keys} keys 做线性变换得到 K K K:形状同上
    • values \texttt{values} values 做线性变换得到 V V V:形状同上
  3. 拆分 heads(split heads)

    • ( B , S , d m o d e l ) (B, S, d_{\mathrm{model}}) (B,S,dmodel) reshape + transpose 成 ( B , m , S , h ) (B, m, S, h) (B,m,S,h)
    • 这样每个 batch、每个序列位置上就可以拆出 m m m 个“头”,每个头维度为 h h h
    • 拆分后:
      Q , K , V   → split   ( B ,   m ,   S ,   h ) . Q, K, V ~\xrightarrow{\text{split}}~ (B,\, m,\, S,\, h). Q,K,V split  (B,m,S,h).
  4. 计算注意力分数(scores)

    • 使用 scaled dot-product:
      scores = Q × K T h 形状 = ( B ,   m ,   S ,   S ) . \text{scores} = \frac{Q \times K^T}{\sqrt{h}} \quad\text{形状} = (B,\, m,\, S,\, S). scores=h Q×KT形状=(B,m,S,S).
    • 此时会应用「下三角 mask」(causal mask)以保证自回归:只关注「过去和当前」位置,屏蔽「未来」位置。
    • scores \text{scores} scores s o f t m a x \mathrm{softmax} softmax 得到注意力权重 a t t n _ w e i g h t s \mathrm{attn\_weights} attn_weights
  5. 加权求和(attended values)
    attended_values = a t t n _ w e i g h t s × V , 形状 = ( B ,   m ,   S ,   h ) . \text{attended\_values} = \mathrm{attn\_weights} \times V, \quad \text{形状} = (B,\, m,\, S,\, h). attended_values=attn_weights×V,形状=(B,m,S,h).
    这样就得到每个 head 对原值向量的加权结果。

  6. 合并 heads(merge heads)

    • ( B , m , S , h ) (B, m, S, h) (B,m,S,h) 还原到 ( B , S , m × h ) (B, S, m \times h) (B,S,m×h),即 ( B , S , d m o d e l ) (B, S, d_{\mathrm{model}}) (B,S,dmodel)
    • 合并之后,相当于将所有 head 的信息拼接到最后一个维度上。
  7. 可选的最终线性映射 W O \mathbf{W}_O WO

    • 多数实现会继续用一个线性层 W O \mathbf{W}_O WO(同样是 ( d m o d e l , d m o d e l ) (d_{\mathrm{model}}, d_{\mathrm{model}}) (dmodel,dmodel))把拼接后的多头输出再次投影,形状保持 ( B , S , d m o d e l ) (B, S, d_{\mathrm{model}}) (B,S,dmodel)

通过以上步骤,多头注意力便可将序列的上下文信息捕获到不同的 head(不同的子空间),再合并形成新的隐层表示。

cao!


网站公告

今日签到

点亮在社区的每一天
去签到