SGD lr = 0.01
Momentum SGD lr = 0.01 L'apprentissage s'est arrêté en cours de route. Est-ce que lr était trop grand? (Dans le livre, lr = 0,005.)
SGD , Batch Normalization lr = 0.01 La normalisation des lots a amélioré la précision.
Les détails de la normalisation par lots ne sont pas écrits dans le livre, j'ai donc étudié en regardant l'article suivant. https://qiita.com/omiita/items/01855ff13cc6d3720ea4 -Batch nom est un mini-batch qui normalise la valeur avant de passer par la fonction d'activation à 0 en moyenne et 1 sur la distribution pour chaque même canal. ・ La raison de l'amélioration avec le nom de lot est inconnue. J'ai compris.
Étonnamment, Shogi est vraiment faible. Quelle est la cause?
Vidéo de jeu https://youtu.be/9YBImGLzm1w
Figure finale comme de la merde
Recommended Posts