[Apprenez en faisant! Développement Deep Learning par PyTorch](https://www.amazon.co.jp/%E3%81%A4%E3%81%8F%E3%82%8A%E3%81%AA%E3%81%8C% E3% 82% 89% E5% AD% A6% E3% 81% B6% EF% BC% 81PyTorch% E3% 81% AB% E3% 82% 88% E3% 82% 8B% E7% 99% BA% E5% B1% 95% E3% 83% 87% E3% 82% A3% E3% 83% BC% E3% 83% 97% E3% 83% A9% E3% 83% BC% E3% 83% 8B% E3% 83% 1 du livre B3% E3% 82% B0-% E5% B0% 8F% E5% B7% 9D-% E9% 9B% 84% E5% A4% AA% E9% 83% 8E-ebook / dp / B07VPDVNKW) J'ai essayé un réglage fin de -5 avec Google Colaboratory. (Vous pouvez voir tout le code sur Author GitHub)
CPU Cela a pris environ 10 minutes.
GPU Cela ne prend pas 20 secondes.
TPU Cela a également pris environ 10 minutes.
―― Le GPU était extrêmement rapide. Cependant, le processeur n'a pas pris beaucoup de temps que prévu. La cause de l'échec est que le TPU a été traité comme un processeur. Des recherches ultérieures ont révélé que si vous vouliez utiliser TPU avec PyTorch, vous auriez besoin d'écrire du code pour le rendre possible. Je vais l'essayer la prochaine fois.