Verwenden von cuda11.0 mit pytorch mit Docker

Ab dem 14. Oktober 2020 verfügt pytorch offiziell nicht über eine Installationsmethode für cuda11.0. Daher werde ich das Verfahren zum Erstellen einer Pytorch-Umgebung für cuda11.0 mit Docker erläutern.

Voraussetzungen

Voraussetzung ist, dass die Docker- und nvidia-Treiber installiert sind. Weitere Informationen zu diesen Installationen finden Sie in anderen Artikeln.

$ nvidia-smi

Überprüfen Sie mit dem obigen Befehl auch, ob die cuda-Version 11.0 ist.

Laden Sie den Pytorch-Container herunter

Bitte greifen Sie auf die nvidia-Website zu, registrieren Sie Ihre Benutzerinformationen und öffnen Sie den Pytorch-Bildschirm.

$ sudo docker pull nvcr.io/nvidia/pytorch:20.09-py3

Da der Pull-Befehl den obigen Befehl enthält, kopieren Sie ihn und führen Sie ihn im Terminal aus.

$ sudo docker images

Überprüfen Sie, ob Sie mit diesem Befehl installieren können. nvcr.io/nvidia/pytorch 20.09-py3 Wenn es ein Bild gibt, das sagt, ist es ein Erfolg.

Überprüfen Sie, ob Pytorch Cuda verwenden kann

Führen Sie den Befehl aus, um die Bilder aufzulisten, überprüfen Sie die BILD-ID von pytorch, kopieren Sie sie und führen Sie den folgenden Befehl aus.

$ sudo docker run -it --gpus all [IMAGE ID] bash

Dann mit Bash

$ python
>> import torch
>> print(torch.cuda.is_available())

Wenn damit true zurückgegeben wird, ist dies erfolgreich. bash kann mit control + d beendet werden. (Linux)

Erstellen Sie einen Container und hängen Sie die Datei ein

Bitte beenden Sie bash einmal.

$ sudo docker ps -a

Mit dem obigen Befehl können Sie den Container überprüfen, der erstellt wurde, als Sie bash zuvor ausgeführt haben. Verwenden Sie diese CONTAINER-ID.

$ sudo docker inspect [CONTAINER ID]

Finden Sie WorkingDir mit control + f. Verwenden Sie außerdem den Befehl, um den Pfad des Ordners auf dem PC zu überprüfen, auf dem Sie arbeiten möchten.

$ pwd

Erstellen Sie dann früher einen Container auf der nvidia-Site, wie in der Übersicht beschrieben.

$ sudo docker run --gpus all -it --rm -v [Der Pfad des Ordners, an dem Sie arbeiten möchten]:[workingDir] nvcr.io/nvidia/pytorch:20.09-py3

In meinem Fall

$ sudo docker run --gpus all -it --rm -v /home/myname/Desktop/hoge:/workspace nvcr.io/nvidia/pytorch:20.09-py3

Danach sollten Sie bestätigen können, dass der Container gestartet wurde.

Schließlich

Bitte seien Sie vorsichtig, da Tippfehler auftreten können. Ich hoffe, es wird eine Verbindung sein, bis der Beamte die Installationsmethode veröffentlicht.

Recommended Posts

Verwenden von cuda11.0 mit pytorch mit Docker
Verwenden Sie Puphpeteer mit Docker
Verwenden Sie GDAL mit Python mit Docker
[Docker] Wird immer mit Docker + Rails verwendet
Verwenden von PlantUml mit Honkit [Docker]
Ich habe versucht, Scalar DL mit Docker zu verwenden
GPU-Erkennung mit Docker mithilfe von WSL2 (August 2020)
Verwenden Sie Amazon ECR Credential Helper mit Docker Desktop
Erhöhen Sie die Lautstärke, wenn Sie Docker mit vscode verwenden.
Versuchen Sie, einen anderen Servlet-Container-Steg mit Docker zu verwenden
Verwenden Sie ProGuard mit Gradle
Verwenden Sie Pair mit OpenJDK
Starten Sie MariaDB mit Docker
Explodiere Docker mit WSL2
Verwenden Sie die C-Bibliothek mit Swift unter Verwendung von Clang-Modulen (Modulkarte).
Verwenden Sie XVim2 mit Xcode 12.0.1
Verwenden von CentOS mit LXD
Bedienen Sie Emby mit Docker
Führen Sie Payara mit Docker aus
Verwenden Sie Webmock mit Rspec
Verwenden Sie WebJars mit Gradle
Verwenden Sie jlink mit gradle
Einweg-PHP mit Docker
[PHP8] Installieren und verwenden Sie die YAML-Funktion (YAML-Parser) von PECL mit Docker
Verwenden Sie die In-Container-Shell des Dockers mit cygwin [docker exec -it bash]
Registrieren Sie Ihr eigenes Docker-Image in ECR mithilfe der AWS CLI
Sie müssen winpty mit Docker Exec [Windows] verwenden.
Verwenden Sie Lambda-Ebenen mit Java
Verwenden Sie Thymeleaf mit Azure-Funktionen
Bereitstellung mit EC2 / Docker / Laravel
Führen Sie TAO Core mit Docker aus
Versuchen Sie es mit GloVe mit Deeplearning4j
Docker-Management mit VS-Code
Verwenden Sie das pfx-Zertifikat mit Okhttp3
Japanisieren Sie mit i18n mit Rails
Richten Sie GitLab mit Docker ein
Verwenden Sie die Bulk-API mit RestHighLevelClient
Verwenden Sie SDKMAN! Mit Git Bash
Führen Sie Rails immer im Docker aus
Docker Autostart-Einstellung mit wsl2
[Docker] Rails 5.2-Umgebungskonstruktion mit Docker
Verwenden Sie mit Rails 6.0 mehrere Datenbanken
Verwenden von Mapper mit Java (Spring)