【Stable Diffusion部署至GNU/Linux】安装流程

发布于:2025-02-15 ⋅ 阅读:(11) ⋅ 点赞:(0)

以下是安装Stable Diffusion的步骤,以Ubuntu 22.04 LTS为例子。

显卡与计算架构介绍

CUDA是NVIDIA GPU的专用并行计算架构
技术层级 说明
CUDA Toolkit 提供GPU编译器(nvcc)、数学库(cuBLAS)等开发工具
cuDNN 深度神经网络加速库(需单独下载)
GPU驱动 包含CUDA Driver(需与CUDA Toolkit版本匹配)

CUDA与NIDIA

  1. 硬件指令集绑定:NVIDIA GPU内置CUDA核心需要专用指令集
  2. 生态垄断地位:90%的深度学习框架原生支持CUDA(PyTorch/TensorFlow等)
  3. 计算库优化:cuBLAS/cuDNN等加速库针对N卡有极致优化

可以把英伟达的驱动和CUDA的关系类比为Python解释器和Python语言。具体来说:
英伟达驱动(NVIDIA Driver):这个类似于Python解释器。它是底层的软件,负责与硬件(即GPU)进行通信。英伟达驱动提供了基本的功能和接口,使得操作系统和其他软件能够使用GPU进行各种计算任务。

CUDA(Compute Unified Device Architecture):这个类似于Python语言。CUDA是一个并行计算平台和编程模型,它允许开发人员使用C、C++和Fortran等高级编程语言编写能够在英伟达GPU上运行的程序。CUDA依赖于英伟达驱动来访问和控制GPU硬件资源。


AMD显卡:ROCm

ROCm:AMD的开放计算平台(Radeon Open Compute)

对应组件 功能
ROCm Toolkit 包含编译器(HIPCC)、数学库(rocBLAS)等
MIOpen 深度学习加速库(对标cuDNN)
ROCm Driver AMD GPU内核级驱动

关键对比(NVIDIA CUDA vs AMD ROCm)

特性 NVIDIA CUDA AMD ROCm
启动时间 2006年 2016年
硬件兼容性 全系N卡 仅RX Vega及更新架构
容器支持 完善的NGC Docker镜像 有限支持
主流框架覆盖率 100% 约70%
典型延迟优化 纳秒级 微秒级

安装流程

1. 检查NVIDIA驱动及CUDA(NVIDIA显卡用户)

  • 安装专有NVIDIA驱动,之后重开机。
  • 安装 CUDA
  • 命令
    nvidia-smi       # 检查NVIDIA驱动状态
    nvcc --version   # 检查CUDA版本
    
  • 作用:确认GPU驱动和CUDA环境正常。
  • 问题处理
    • 若命令未找到:需安装NVIDIA驱动和CUDA。
    • 版本不兼容:确保CUDA版本与PyTorch兼容(如CUDA 11.x/12.x)。

2. 安装AMD驱动及ROCm(AMD显卡用户)

AMD显卡知识库
在 Ubuntu 系统上安装和配置 AMD GPU 驱动及 ROCm(Radeon Open Compute)平台


1. 安装内核头文件和额外模块
sudo apt install linux-headers-`uname -r