Klicken Sie hier für das, was Sie brauchen
CUDA Version: 10.0 Nvidia Driver Version: 430.50 cuDNN v7.4.2 (Dec 14, 2018), for CUDA 10.0
CUDA → Nvidia Driver → cuDNN Es scheint notwendig zu sein, dies in der Reihenfolge von zu tun.
Öffnen Sie .bash_aliase in Ihrem Home-Verzeichnis (erstellen Sie es, falls Sie keines haben) und geben Sie Folgendes ein:
# .bash_aliase
export PATH=/usr/local/cuda/bin:$PATH
export CPATH=/usr/local/cuda/include:$CPATH
export LIBRARY_PATH=/usr/local/cuda/lib:$LIBRARY_PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib:$LD_LIBRARY_PATH
Laden Sie es mit dem folgenden Befehl.
source ~/.bash_aliase
CUDA
#Installieren Sie zuerst das heruntergeladene Paket
sudo dpkg -i cuda-repo-ubuntu1804-10-0-local-10.0.130-410.48_1.0-1_amd64.deb
#Fügen Sie cuda zum Repository hinzu, um die Liste zu aktualisieren und zu installieren.
sudo apt-key adv –fetch-keys http://developer.download.nvidia.com/compute/cuda/repos/ubuntu1804/x86_64/7fa2af80.pub
sudo apt-get update
sudo apt-get install cuda-toolkit-10-0
Starten Sie neu, wenn Sie fertig sind.
Nvidia Driver
sudo apt-get install nvidia-driver-430
Starten Sie neu, wenn Sie fertig sind.
cuDNN
sudo dpkg -i libcudnn7_7.4.2.24-1+cuda10.0_amd64.deb
sudo dpkg -i libcudnn7-dev_7.4.2.24-1+cuda10.0_amd64.deb
sudo dpkg -i libcudnn7-doc_7.4.2.24-1+cuda10.0_amd64.deb
echo -e "\n## CUDA and cuDNN paths" >> ~/.bashrc
echo 'export PATH=/usr/local/cuda-10.0/bin:${PATH}' >> ~/.bashrc
echo 'export LD_LIBRARY_PATH=/usr/local/cuda-10.0/lib64:${LD_LIBRARY_PATH}' >> ~/.bashrc
Warum
sudo apt install nvidia-driver-430
Als ich traf, traten 440 ein.
http://people.cs.uchicago.edu/~kauffman/nvidia/cudnn/
CuDNN kompatibel mit cuda v10.2
Zur Bestätigung
cat /proc/driver/nvidia/version
modinfo nvidia
Wenn Sie nvidia-smi ausführen und die folgende Meldung angezeigt wird, liegt möglicherweise ein Konflikt mit dem Grafiktreiber Nouveau vor, der standardmäßig in Ubuntu installiert ist.
$ sudo vim /etc/modprobe.d/blacklist-nouveau.conf
blacklist-nouveau.conf
blacklist nouveau
options nouveau modeset=0
Führen Sie als Nächstes den folgenden Befehl aus, um das Kernelmodul neu zu laden.
$ sudo update-initramfs -u
Starten Sie den PC neu und installieren Sie CUDA, wenn nvidia-smi ausgeführt werden kann.
Wenn viele Trainingsdaten vorhanden sind oder batch_size groß ist, wird es bei der Ausführung gestoppt. Mit der Standardeinstellung wird jedoch versucht, den gesamten für das Training erforderlichen GPU-Speicher zuzuweisen, sodass der gesamte GPU-Speicher belegt wird und ein Fehler auftritt. Das liegt daran, dass es endet. Anstatt zuerst Speicher zuzuweisen, ändern Sie daher, um so viel GPU-Speicher zuzuweisen, wie für jedes Lernen erfasst werden kann.
import tensorflow as tf
from keras import backend as K
import tensorflow as tf
from keras.backend import tensorflow_backend
config = tf.ConfigProto(gpu_options=tf.GPUOptions(allow_growth=True))
session = tf.Session(config=config)
tensorflow_backend.set_session(session)
Referenz https://yurufuwadiary.com/tensorflow-rtx2080super-installation
Recommended Posts