one-expression chaude | Représentation entière |
---|---|
[0. 0. 0. 0. 0. 0. 0. 0. 0. 1.] | [9] |
[0. 0. 1. 0. 0. 0. 0. 0. 0. 0.] | [2] |
[0. 1. 0. 0. 0. 0. 0. 0. 0. 0.] | [1] |
[0. 0. 0. 0. 0. 1. 0. 0. 0. 0.] | [5] |
J'ai l'impression que de nombreux ensembles de données ont des étiquettes entières, mais de nombreuses fonctions de perte ne fonctionnent pas à moins que vous ne leur donniez des étiquettes uniques au lieu d'étiquettes entières. Dans un tel cas, vous devez convertir. (Au contraire, je pense qu'il y a une minorité de fonctions de perte qui peuvent être apprises avec des étiquettes entières, telles que "sparse_categorical_crossentropy".)
Le code est indiqué ci-dessous.
import numpy as np
n_labels = len(np.unique(train_labels))
train_labels_onehot = np.eye(n_labels)[train_labels]
n_labels = len(np.unique(test_labels))
test_labels_onehot = np.eye(n_labels)[test_labels]
Recommended Posts