文章首发于若绾 [Linux指南]手把手教你配置Ubuntu下的CUDA、cuDNN环境,转载请注明出处。
作为深度学习和并行计算的核心工具,CUDA(Compute Unified Device Architecture)为NVIDIA显卡提供了并行计算的能力。在本教程中,我们将详细介绍如何在Ubuntu操作系统下配置CUDA。本教程以CUDA 12.1和Ubuntu 20.04为例进行说明,但对于其他版本的CUDA和Ubuntu,配置过程也相差无几。
在配置CUDA之前,首先要确保你的系统满足安装要求。以下是需要检查的项目:
打开终端并输入以下命令更新系统软件包:
sudo apt update
sudo apt upgrade
如果你的系统尚未安装NVIDIA显卡驱动,可使用以下命令安装:
sudo ubuntu-drivers autoinstall
安装完成后,重启计算机以确保驱动程序正确加载。
前往CUDA ToolKit官方网站下载相应版本的CUDA Toolkit,的安装包(以CUDA 12.1为例)
你可以运行以下命令下载并安装CUDA Toolkit:
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/cuda-ubuntu2004.pin
sudo mv cuda-ubuntu2004.pin /etc/apt/preferences.d/cuda-repository-pin-600
wget https://developer.download.nvidia.com/compute/cuda/12.1.0/local_installers/cuda-repo-ubuntu2004-12-1-local_12.1.0-530.30.02-1_amd64.deb
sudo dpkg -i cuda-repo-ubuntu2004-12-1-local_12.1.0-530.30.02-1_amd64.deb
sudo cp /var/cuda-repo-ubuntu2004-12-1-local/cuda-*-keyring.gpg /usr/share/keyrings/
sudo apt-get update
sudo apt-get -y install cuda
为了确保系统能够正确识别CUDA Toolkit的安装位置,需要设置环境变量。打开~/.bashrc文件,添加以下内容:
#打开~/.bashrc
sudo vim ~/.bashrc
#在文末添加下两行并保存关闭
export PATH=/usr/local/cuda-12.1/bin${PATH:+:${PATH}}
export LD_LIBRARY_PATH=/usr/local/cuda-12.1/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}
保存文件并运行以下命令使环境变量生效:
source ~/.bashrc
运行以下命令验证CUDA是否已正确安装
nvcc --version
如果安装成功,你将看到类似于以下的输出,其中显示了CUDA编译器(nvcc)的版本信息:
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2021 NVIDIA Corporation
Built on Tue_Sep_21_19:24:46_PDT_2021
Cuda compilation tools, release 12.1, VXX.X.X
Build cuda_12.1.r12.1/compiler.XX
cuDNN是一款深度学习框架的GPU加速库,支持TensorFlow、PyTorch等框架。要安装cuDNN,请按照以下步骤操作:
cd ~/Downloads/
sudo dpkg -i cudnn-local-repo-${OS}-8.x.x.x_1.0-1_amd64.deb
#导入GPG key
sudo cp /var/cudnn-local-repo-*/cudnn-local-*-keyring.gpg /usr/share/keyrings/
#刷新apt源
sudo apt-get update
#安装库
sudo apt-get install libcudnn8=8.x.x.x-1+cudaX.Y
sudo apt-get install libcudnn8-dev=8.x.x.x-1+cudaX.Y
sudo apt-get install libcudnn8-samples=8.x.x.x-1+cudaX.Y
至此,你已经成功配置了Ubuntu下的CUDA环境。现在,你可以使用GPU进行深度学习和高性能计算了。在接下来的工作中,你可能还需要根据实际需求安装和配置深度学习框架,例如TensorFlow或PyTorch。