L'année dernière, j'ai écrit un article "Installation du dernier cuda + cudnn + cupy sur Ubuntu 18.04 @ Spring 2019", mais cette année aussi, Google La collaboration ne suffisait pas, nous avons donc créé un environnement pour utiliser un serveur GPU à part entière.
Gardez un mémorandum de travail à ce moment-là.
--Créez un environnement avec ubuntu qui peut utiliser Tensorflow 2.2. ~~ (Chainer a arrêté la mise à jour, il ne peut donc pas être aidé) ~~
Veuillez vous reporter à Prise en charge GPU de Tensorflown. Veuillez noter que vous pouvez utiliser la même procédure pour d'autres bibliothèques.
Machine: GCP Computer Engine (machine virtuelle cloud fournie par Google) CPU, mémoire: n1-standard-2 (vCPU x 2, mémoire 7,5 Go) OS: Ubuntu 18.04 GPU: NVIDIA Tesla K80
Faites attention au cuda, au pilote et aux différentes versions de la bibliothèque. Bien sûr, vous obtiendrez une erreur s'ils ne sont pas compatibles. Au moment de la publication, les commandes suivantes ont été exécutées, mais veuillez spécifier la version requise et DL.
#installation liée à cuda
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu1804/x86_64/cuda-repo-ubuntu1804_10.2.89-1_amd64.deb
sudo apt-key adv --fetch-keys https://developer.download.nvidia.com/compute/cuda/repos/ubuntu1804/x86_64/7fa2af80.pub
sudo dpkg -i cuda-repo-ubuntu1804_10.2.89-1_amd64.deb
sudo apt-get update
wget http://developer.download.nvidia.com/compute/machine-learning/repos/ubuntu1804/x86_64/nvidia-machine-learning-repo-ubuntu1804_1.0.0-1_amd64.deb
sudo apt install ./nvidia-machine-learning-repo-ubuntu1804_1.0.0-1_amd64.deb
sudo apt-get update
#Installation du pilote
sudo apt-get install --no-install-recommends nvidia-driver-430
#Ajout du chemin associé à cuda.Ecrire dans un fichier de configuration tel que bashrc
export PATH=/usr/local/cuda/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH
Redémarrez une fois à ce stade. Après le redémarrage, appuyez sur nvidia-smi
pour voir si cela fonctionne correctement
#Installation d'autres bibliothèques utilisées par tensorflow
sudo apt-get install --no-install-recommends cuda-10-2 libcudnn7 libcudnn7-dev
sudo apt-get install --no-install-recommends libnvinfer6 libnvinfer-dev libnvinfer-plugin6
#Installer tensorflow
pip install tensorflow
import tensorflow as tf
tf.__version__
> '2.2.0'
from tensorflow.python.client import device_lib
device_lib.list_local_devices()
> '''
[name: "/device:CPU:0"
device_type: "CPU"
memory_limit: 268435456
locality {
}
incarnation: 3998521659132627640,
name: "/device:XLA_CPU:0"
device_type: "XLA_CPU"
memory_limit: 17179869184
locality {
}
incarnation: 4355352578664011114
physical_device_desc: "device: XLA_CPU device",
name: "/device:XLA_GPU:0"
device_type: "XLA_GPU"
memory_limit: 17179869184
locality {
}
incarnation: 5803845507802816222
physical_device_desc: "device: XLA_GPU device"]
'''
Tensorflow a reconnu le GPU. la fin
En fait, GCP a une configuration pour le GPU préparée par Google, et si vous l'utilisez lors de la création d'une machine virtuelle, vous n'avez pas besoin de suivre les étapes fastidieuses ci-dessus. C'est devenu un monde pratique ~
Recommended Posts