Baies naïves Entraîner des entités discrètes (int requis)
alpha:float, optional ->Paramètre de lissage(la valeur par défaut est 1.0)
fit_prior:boolean ->Utiliser ou non les probabilités antérieures de classe
class_prior:array-like, size=[n_classes] -> Prior probabilities of the classes
example
import numpy as np
# 0~Aléatoire entre 5 et 6*100 baie([[Les 100 premiers],…,[6e 100]])
X = np.random.randint(5, size=(6, 100)) #Données des enseignants
Y = np.array([1,2,3,4,5,6]) #classe-> X[0]Est la classe 1, X[2]Est comme la classe 3
from sklearn.naive_bayes import MultinomialNB
#Classe Naive Bays
clf = MultinomialNB()
#Apprentissage
clf.fit(X, Y) # MultinomialNB(alpha=1.0, class_prior=None, fit_prior=True)Est retourné
print(clf.predict(X[2])) # ->OK quand 3 revient
Mémo de méthode
fit(X,Y) Génération d'apprenants X-> Données de l'enseignant, tableau épars. Nombre d'échantillons * Nombre de fonctionnalités Il semble que la classe Y->, X [0], X [2] soit classée comme classe 1, x [1] soit classée comme classe 2.
get_params() Obtenez des paramètres (comme {'alpha': 1.0, 'class_prior': None, 'fit_prior': True})
predict(X) Effectuer la classification X-> width est le tableau de numéros d'entités Valeur de retour-> Quelle classe est classée
predict_log_proba(X) Chaque probabilité de classification (log) Tableau de valeurs de retour dont la largeur est le nombre de classes et dont les éléments sont log (probabilité)
predict_proba(X) Aucun journal au-dessus de ver
score(X,y) Précision moyenne Identique à la coupe