Réglage de l'indice d'évaluation du test croisé (mémo, scikit-learn, cross_validation.cross_val_score)

cas de cross_validation.cross_val_score

Précisez la valeur de ce ** score **! !!

scores = cross_validation.cross_val_score(clf, X_digits, y_digits, cv=k_fold, ... scoring='precision_macro')

Même lorsque j'ai entendu la présentation à la conférence, l'indice d'évaluation du test croisé était souvent un mystère. Je me demandais si cela serait uniquement déterminé en fonction de la cible (anciennement). Vous choisissez correctement en fonction de votre objectif ^^;

** Liste de liste, les détails peuvent être sautés plus loin à partir du lien ** http://scikit-learn.org/stable/modules/model_evaluation.html#scoring-parameter

['accuracy', 'adjusted_rand_score', 'average_precision', 'f1', 'f1_macro', 
'f1_micro', 'f1_samples', 'f1_weighted', 'log_loss', 'mean_absolute_error', 
'mean_squared_error', 'median_absolute_error', 'precision',
'precision_macro', 'precision_micro', 'precision_samples', 
'precision_weighted', 'r2', 'recall', 'recall_macro', 'recall_micro', 
'recall_samples', 'recall_weighted', 'roc_auc']

'accuracy' accuracy_score  De nombreux échantillons le font en classification binaire, mais c'est la valeur par défaut? Formellement, c'est comme ça. alt

Au moment du retour, M. Daibutsu a écrit. La table a neg_, mais la liste dit "mean_squared_error". Parce qu'il y a une valeur négative qui revient, est-ce lié à ça ... http://d.hatena.ne.jp/teramonagi/20130825/1377434479#20130825f2

** Extrait de la description (quart est la valeur du paramètre) ** La notation correspond exactement à la liste ... C'est un mystère qu'elle ne correspond pas

Classification ‘accuracy’ metrics.accuracy_score ‘average_precision’ metrics.average_precision_score ‘f1’ metrics.f1_score for binary targets ‘f1_micro’ metrics.f1_score micro-averaged ‘f1_macro’ metrics.f1_score macro-averaged ‘f1_weighted’ metrics.f1_score weighted average ‘f1_samples’ metrics.f1_score by multilabel sample ‘neg_log_loss’ metrics.log_loss requires predict_proba support ‘precision’ etc. metrics.precision_score suffixes apply as with ‘f1’ ‘recall’ etc. metrics.recall_score suffixes apply as with ‘f1’ ‘roc_auc’ metrics.roc_auc_score Clustering ‘adjusted_rand_score’ metrics.adjusted_rand_score Regression ‘neg_mean_absolute_error’ metrics.mean_absolute_error ‘neg_mean_squared_error’ metrics.mean_squared_error ‘neg_median_absolute_error’ metrics.median_absolute_error ‘r2’ metrics.r2_score

Recommended Posts

Réglage de l'indice d'évaluation du test croisé (mémo, scikit-learn, cross_validation.cross_val_score)
Les pièges du RMSE (erreur quadratique moyenne), un indice d'évaluation de la régression!