Apprenons en profondeur! Sous Windows (VS2013 + caffe + CUDA7.5 + cudnn5.1)

Je veux faire du Deep Learning même sous Windows

En parlant de frameworks Deep Learning, Caffe, Tensorflow, Chainer, etc. sont célèbres, mais beaucoup d'entre eux ne prennent pas en charge Windows, donc jusqu'à présent, l'environnement était construit sur Ubuntu. (Chainer fonctionne également sous Windows) Mais je veux toujours le faire sous Windows. C'est pourquoi j'ai réussi à construire Caffe à la suite d'essais et d'erreurs quant à savoir si cela pouvait être fait sous Windows, donc je vais le noter.

Cela dit, ce n'est pas particulièrement difficile, et la version Windows de Caffe a un lien de la page officielle vers le référentiel Github, vous pouvez donc le construire en suivant le README. https://github.com/Microsoft/caffe

Cependant, avec la procédure ci-dessus, il doit s'agir de cudnn3 ou cudnn4, ou il n'y a pas d'explication détaillée ...

Je veux utiliser cudnn 5.1, donc je fourche la branche Windows de Caffe et utilise le référentiel modifié pour cuDNN v5. Les changements sont les suivants.

・ Inclure \ caffe \ layers \ cudnn_relu_layer.hpp ・ Inclure \ caffe \ layer \ cudnn_sigmoid_layer.hpp ・ Incluez \ caffe \ layers \ cudnn_tanh_layer.hpp ・ Incluez \ caffe \ util \ cudnn.hpp ・ Src \ caffe \ couches \ cudnn_conv_layer.cu ・ Src \ caffe \ couches \ cudnn_relu_layer.cu ・ Src \ caffe \ couches \ cudnn_relu_layer.cpp ・ Src \ caffe \ couches \ cudnn_sigmoid_layer.cu ・ Src \ caffe \ couches \ cudnn_sigmoid_layer.cpp ・ Src \ caffe \ couches \ cudnn_tanh_layer.cu ・ Src \ caffe \ couches \ cudnn_tanh_layer.cpp

https://github.com/yuzsh/caffe

Environnement d'exécution

Préparation

Clonage du référentiel (je vous laisse l'emplacement) Téléchargez la version Windows de la branche.

git clone -b windows https://github.com/yuzsh/caffe.git

Allez dans le répertoire racine de caffe et copiez le fichier de propriétés.

copy .\windows\CommonSettings.props.example .\windows\CommonSettings.props


 Je vais omettre comment installer diverses bibliothèques,
 Veuillez installer CUDA et cudnn à partir de la [page officielle de NVIDIA](https://developer.nvidia.com/cuda-gpus).
 Pour Python, il est pratique d'utiliser [Anaconda](https://anaconda.org).

 De plus, le module Python nécessite numpy, scipy, matplotlib, scikit-image et protobuf, vous devez donc les installer. J'ai fait ce qui suit:
>```activate anaconda2
conda install -y numpy scipy matplotlib scikit-image pip
pip install protobuf

Modification de CommonSettings.props

Ouvrez. \ Windows \ CommonSettings.props. Il sera plus facile de voir si vous l'ouvrez dans Visual Studio. Où vérifier

false //La valeur par défaut est false Définie sur true pour ceux qui ne peuvent pas utiliser le GPU true //La valeur par défaut est true. Pour ceux qui ne peuvent pas utiliser le GPU ou qui n'en ont pas besoin, définissez-le sur false. 7.5 //Version CUDA true //Vrai car Python est utilisé La valeur par défaut est false false //Utiliser Matlab ou pas cette fois si faux(Défaut) //Par défaut, c'est beaucoup écrit, mais si vous utilisez une architecture récente, c'est vide.(GTX 1080 etc.) path to your cudnn //$(CuDnnPath)\cuda\Être inclus C:\Anaconda3\envs\anaconda2 //Chemin Python


 Au fait, en mode Débogage, si Python n'est pas défini sur false, une erreur se produira car Python27_d.lib n'existe pas.

 Une fois que c'est fait, je le changerai en "Traiter les avertissements comme des erreurs: Non" dans les paramètres du projet, mais si j'ai cloné mon référentiel, je l'ai déjà fait, donc je pense que ça va.

### Construire
 Ouvrez ensuite le fichier caffe.sln et générez la solution.
 Ça prend beaucoup de temps.
 Lorsque la construction est terminée avec succès, exe et dll seront créés dans Build \ x64 \ Release (ou Build \ x64 \ Debug).

### Paramètre PATH
 Ajoutez `` <caffe_root> \ Build \ x64 \ Release \ pycaffe``` à la variable d'environnement PYTHONPATH.
 En passant, [RapidEE](http://www.rapidee.com/en/about) est pratique pour gérer les variables d'environnement dans Windows.

### Contrôle de fonctionnement
 Ouvrez une invite de commande, lancez python et si l'importation de caffe réussit sans erreur, l'installation est terminée.
 De plus, si vous allez dans <CAFFE_HOME> \ Build \ x64 \ Release et exécutez caffe.exe et que le message d'utilisation s'affiche, vous pouvez confirmer que l'EXE a été généré sans aucun problème.

 En complément, des exemples tels que MNIST sont écrits dans des scripts shell, il est donc nécessaire de préparer un environnement et un logiciel qui peuvent l'exécuter.
 Je l'ai mis quand j'ai mis git.


 C'est tout.
 Je pense que c'était plus facile que Ubuntu.

 À propos, le chainer ne peut être installé qu'avec `` pip install chainer ''.






Recommended Posts

Apprenons en profondeur! Sous Windows (VS2013 + caffe + CUDA7.5 + cudnn5.1)
Configurer AWS (Ubuntu 14.04) pour le Deep Learning (installer CUDA, cuDNN)
Installez CUDA10.1 + cuDNN7.6.5 + tensorflow-2.3.0 sur Ubuntu 18.04
Le moyen le plus simple d'obtenir Chainer v1.5 + CUDA + cuDNN sous Windows
Comment installer le framework Deep Learning Caffe sur un Mac en mode CPU
Note récapitulative sur le Deep Learning -4.2 Fonction de perte-
Comment mettre à jour vers Chainer 2.0 (Windows + CUDA 8.0 + CUDNN)
Accélérez l'apprentissage en profondeur avec le processeur Rasperry Pi 4
[Windows 10] Construction de l'environnement "Deep Learning from scratch"
Note récapitulative sur l'apprentissage profond -4.3 Méthode de gradient
L'apprentissage en profondeur
Un amateur a essayé le Deep Learning avec Caffe (Introduction)
GitHub du bon livre "Deep Learning from scratch"
Procédure de génération de TensorFlow 2.2.0-rc0 (CUDA10.2 + cuDNN7.6.5) --Windows10
Installez le dernier Cuda + CuDNN sur Ubuntu 18.04 @ Spring 2020
Un amateur a essayé le Deep Learning avec Caffe (Vue d'ensemble)
Résumé Python vs Ruby "Deep Learning from scratch"
Étapes pour créer PyTorch 1.5 pour CUDA 10.2 sous Windows