Note de la classe sklearn.naive_bayes.MultinomialNB (alpha = 1.0, fit_prior = True, class_prior = None)

Baies naïves Entraîner des entités discrètes (int requis)

alpha:float, optional ->Paramètre de lissage(la valeur par défaut est 1.0)
fit_prior:boolean ->Utiliser ou non les probabilités antérieures de classe
class_prior:array-like, size=[n_classes] -> Prior probabilities of the classes

example

import numpy as np
# 0~Aléatoire entre 5 et 6*100 baie([[Les 100 premiers],…,[6e 100]])
X = np.random.randint(5, size=(6, 100)) #Données des enseignants
Y = np.array([1,2,3,4,5,6]) #classe-> X[0]Est la classe 1, X[2]Est comme la classe 3
from sklearn.naive_bayes import MultinomialNB
#Classe Naive Bays
clf = MultinomialNB()
#Apprentissage
clf.fit(X, Y) # MultinomialNB(alpha=1.0, class_prior=None, fit_prior=True)Est retourné
print(clf.predict(X[2])) # ->OK quand 3 revient

Mémo de méthode

fit(X,Y) Génération d'apprenants X-> Données de l'enseignant, tableau épars. Nombre d'échantillons * Nombre de fonctionnalités Il semble que la classe Y->, X [0], X [2] soit classée comme classe 1, x [1] soit classée comme classe 2.

get_params() Obtenez des paramètres (comme {'alpha': 1.0, 'class_prior': None, 'fit_prior': True})

predict(X) Effectuer la classification X-> width est le tableau de numéros d'entités Valeur de retour-> Quelle classe est classée

predict_log_proba(X) Chaque probabilité de classification (log) Tableau de valeurs de retour dont la largeur est le nombre de classes et dont les éléments sont log (probabilité)

predict_proba(X) Aucun journal au-dessus de ver

score(X,y) Précision moyenne Identique à la coupe

Recommended Posts

Note de la classe sklearn.naive_bayes.MultinomialNB (alpha = 1.0, fit_prior = True, class_prior = None)
Remarques sur la personnalisation de la classe de liste de dict
Remarques sur l'activation de PostgreSQL avec Django