以下是安装Stable Diffusion的步骤,以Ubuntu 22.04 LTS为例子。
显卡与计算架构介绍
CUDA是NVIDIA GPU的专用并行计算架构
技术层级 | 说明 |
---|---|
CUDA Toolkit | 提供GPU编译器(nvcc)、数学库(cuBLAS)等开发工具 |
cuDNN | 深度神经网络加速库(需单独下载) |
GPU驱动 | 包含CUDA Driver(需与CUDA Toolkit版本匹配) |
CUDA与NIDIA:
- 硬件指令集绑定:NVIDIA GPU内置CUDA核心需要专用指令集
- 生态垄断地位:90%的深度学习框架原生支持CUDA(PyTorch/TensorFlow等)
- 计算库优化:cuBLAS/cuDNN等加速库针对N卡有极致优化
可以把英伟达的驱动和CUDA的关系类比为Python解释器和Python语言。具体来说:
英伟达驱动(NVIDIA Driver):这个类似于Python解释器。它是底层的软件,负责与硬件(即GPU)进行通信。英伟达驱动提供了基本的功能和接口,使得操作系统和其他软件能够使用GPU进行各种计算任务。
CUDA(Compute Unified Device Architecture):这个类似于Python语言。CUDA是一个并行计算平台和编程模型,它允许开发人员使用C、C++和Fortran等高级编程语言编写能够在英伟达GPU上运行的程序。CUDA依赖于英伟达驱动来访问和控制GPU硬件资源。
AMD显卡:ROCm
ROCm:AMD的开放计算平台(Radeon Open Compute)
对应组件 | 功能 |
---|---|
ROCm Toolkit | 包含编译器(HIPCC)、数学库(rocBLAS)等 |
MIOpen | 深度学习加速库(对标cuDNN) |
ROCm Driver | AMD GPU内核级驱动 |
关键对比(NVIDIA CUDA vs AMD ROCm)
特性 | NVIDIA CUDA | AMD ROCm |
---|---|---|
启动时间 | 2006年 | 2016年 |
硬件兼容性 | 全系N卡 | 仅RX Vega及更新架构 |
容器支持 | 完善的NGC Docker镜像 | 有限支持 |
主流框架覆盖率 | 100% | 约70% |
典型延迟优化 | 纳秒级 | 微秒级 |
安装流程
1. 检查NVIDIA驱动及CUDA(NVIDIA显卡用户)
- 安装专有NVIDIA驱动,之后重开机。
- 安装 CUDA
- 命令:
nvidia-smi # 检查NVIDIA驱动状态 nvcc --version # 检查CUDA版本
- 作用:确认GPU驱动和CUDA环境正常。
- 问题处理:
- 若命令未找到:需安装NVIDIA驱动和CUDA。
- 版本不兼容:确保CUDA版本与PyTorch兼容(如CUDA 11.x/12.x)。
2. 安装AMD驱动及ROCm(AMD显卡用户)
AMD显卡知识库
在 Ubuntu 系统上安装和配置 AMD GPU 驱动及 ROCm(Radeon Open Compute)平台
1. 安装内核头文件和额外模块
sudo apt install linux-headers-`uname -r