本文参考链接如下:
transformers源码阅读——vscode调试llama模型代码
1. 调试文件
因为只是搞清楚数据的流向,所以不需要下载任何预训练的参数
from transformers.models.llama import LlamaModel,LlamaConfig
import torch
def run_llama():
# part 1 模型初始化
llamaconfig = LlamaConfig(vocab_size=32000,
hidden_size=4096//2,
intermediate_size=11008//2,
num_hidden_layers=32//2,
num_attention_heads=32//2,
max_position_embeddings=2048//2)
llamamodel = LlamaModel(config = llamaconfig)
# part 2 构建输入数据,在正向传播过程中,只需要传一个inputs_ids,batchsize是4,序列长度是30,每个元素是一个(0,llamaconfig.vocab_size)的随机整数
inputs_ids = torch.randint(
low=0,
high=llamaconfig.vocab_size,
size=(4,30))
# part 3
res = llamamodel(inputs_ids)##前向计算,等价于llamamodel.forward(inputs_ids)
print(res)
if __name__ == "__main__":
run_llama()
2. vscode调试
2.1 设置调试配置文件
点击左侧边栏的运行和调试
按钮:
然后点击创建launch.json文件
然后会出现 python文件调试当前正在运行的python文件
:
然后就新建了一个launch.json
调试配置文件
其中"justMyCode"
表示是一个否只调试当前的文件,如果是true
,就没法进入transformers的代码了,所以如果想调试进入transformers的代码,就把这个属性设置为false
2.2 设置断点
先看看怎么前向计算的。按住ctrl
键,点击LlamaModel
进入LlamaModel定义的源码
但是LlamaModel定义的源码很多,可以通过
资源管理器
的大纲
标签查看LlamaModel源码文件的代码结构:
为了快速抓住重点,在LlamaAttention
的forward
方法打断点:
调试窗口
的断点
标签可以找到这个断点,直接点击可以直接定位到断点的位置。
打开要调试的代码文件,然后点击调试窗口
的调试按钮
然后程序运行,在断点处停止运行。可以看到出现了调试按钮组件
在VSCode调试过程中,各操作按钮的功能如下:
继续(Continue)
• 图标:通常为▶️(播放按钮)。
• 功能:从当前暂停的位置继续执行程序,直到遇到下一个断点或程序自然结束。
• 使用场景:当检查完当前状态的变量或逻辑后,希望程序继续运行而非逐行调试。逐过程(Step Over)
• 图标:通常为⏭️(向右箭头跨越圆点)。
• 功能:执行当前行的代码,不进入函数内部。若当前行包含函数调用,会直接执行完该函数,并停在下一行。
• 示例:在foo();
这一行使用“逐过程”,会直接执行foo()
函数全部代码,停在foo();
的下一行。单步调试(Step Into)
• 图标:通常为⏬(向下箭头进入函数)。
• 功能:进入当前行代码中的函数调用内部,逐行调试函数内的逻辑。
• 示例:在foo();
这一行使用“单步调试”,会跳转到foo()
函数的定义处,开始逐行执行函数内的代码。单步跳出(Step Out)
• 图标:通常为⏫(向上箭头跳出函数)。
• 功能:执行完当前函数的剩余代码,返回到调用此函数的位置。
• 使用场景:在函数内部调试时,若希望快速执行完当前函数并回到调用处。重启(Restart)
• 图标:通常为🔄(循环箭头)。
• 功能:终止当前调试会话,并重新启动程序,从头开始执行。
• 注意:所有变量和状态会被重置。停止(Stop)
• 图标:通常为⏹️(方块图标)。
• 功能:终止当前调试会话,结束程序运行。
• 注意:程序会立即停止,不会执行后续代码。
对比示例:
假设有以下代码:
function a() {
console.log("a");
}
function b() {
a(); // 断点设在此行
console.log("b");
}
b();
• 在a();
行暂停时:
• 逐过程(Step Over):执行a()
但不进入其内部,直接停在console.log("b");
。
• 单步调试(Step Into):跳转到a()
函数内部,停在console.log("a");
。
• 若在a()
函数内部使用单步跳出(Step Out):执行完a()
剩余代码,返回到console.log("b");
。
总结:
• 需要跳过函数调用时用逐过程,深入函数时用单步调试,快速退出函数用单步跳出。
• 继续用于恢复全局执行,重启/停止用于控制调试会话的生命周期。
变量
标签可以看到程序运行到断点处的调用堆栈内的变量的值
监视
标签可以定义(通过点击+
)自己想要实时监视的变量,或者变量的形状:
观察变量还有一个办法,ctrl+J
可以调出下面的调试控制台
:
在最下面输入想要观察的变量就会给出值。同过观察代码和中间变量:
query_states的[4,16,30,128]是怎么得来的:首先4是batch size,30是序列长度,这在测试代码中早就定义好了:
inputs_ids = torch.randint(
low=0,
high=llamaconfig.vocab_size,
size=(4,30))
传进来的hidden_states形状是[4,30,2048],而self.q_proj的形状是:[2048,2048],
所以self.q_proj(hidden_states)得到的输出形状是[4,30,2048], hidden_shape是[4,30,-1,128],所以
self.q_proj(hidden_states).view(hidden_shape)得到的输出的形状是[4,30,16,128],这就是为了多头注意力机制,其中16就是头的个数,128是每个头输出维度。transpose(1, 2)将1,2维度交换,就得到了[4,16,30,128]
调用堆栈
标签可以看到逐层的调用过程: