Fonction d'activation souvent utilisée dans les problèmes de classification, etc.
Parce qu'il attribue l'inférence à l'étiquette de réponse correcte avec probabilité.
Exemple)
Softmax pour manuscrit 8 avec mnist
[0.05, 0.01, 0.04, 0.1, 0.02, 0.05, 0.2, 0.03, 0.4, 0.1]
Correspond à la probabilité de prédiction des nombres 0, 1, 2, .... 9 à partir de l'élément de gauche (prédit être 8 avec une probabilité de 40%) Ajoutez tous les éléments pour obtenir 1.
softmax.py
# coding: UTF-8
import numpy as np
#Fonction Softmax
def softmax(a):
#Obtenez la plus grande valeur
c = np.max(a)
#Soustrayez la plus grande valeur de chaque élément (contre-mesures de débordement)
exp_a = np.exp(a - c)
sum_exp_a = np.sum(exp_a)
#Valeur d'élément/Total de tous les éléments
y = exp_a / sum_exp_a
return y
a = [23.0, 0.94, 5.46]
print (softmax(a))
# [ 9.99999976e-01 2.62702205e-10 2.41254141e-08]
Les références Apprentissage en profondeur à partir de zéro
Recommended Posts