Pour ma propre étude (algorithme d'apprentissage automatique et étude de Python), je vais implémenter la méthode publiée en PRML en Python.
En règle générale, dans la partie algorithme, en plus de la bibliothèque standard Python, ** seul Numpy peut être utilisé **. Nous n'utilisons pas de packages d'apprentissage automatique tels que scikit-learn ou tensorflow. Les packages qui illustrent les résultats, tels que matplotlib, seront utilisés à moins qu'ils ne concernent la mise en œuvre de l'algorithme. J'utilise aussi occasionnellement d'autres packages tels que scipy lorsque cela est nécessaire (déjà utilisé pour les fonctions digamma, etc.). Cependant, nous n'utilisons pas d'outils d'optimisation (tels que scipy.optimize ou la fonction de différenciation automatique de tensorflow) qui facilitent considérablement sa mise en œuvre.
Fondamentalement, nous implémenterons une méthode pour chaque chapitre. ~~ Si vous avez terminé toutes les étapes, vous pouvez entrer dans le deuxième tour. ~~ C'est pour ma propre étude, donc je ne vais pas tout expliquer en détail. J'omettrai l'explication qui, selon moi, n'était pas nécessaire pour regarder en arrière par moi-même.
Liens vers des articles déjà implémentés et liste des méthodes qui seront implémentées.
PRML | article |
---|---|
Chapitre 1 Introduction | Ajustement de courbe de Bayes |
Chapitre 2 Distribution des probabilités | Distribution t de Student |
Chapitre 3 Modèle de régression linéaire | Approximation des preuves |
Chapitre 4 Modèle de discrimination linéaire | Retour logistique Bayes |
Chapitre 5 Réseau neuronal | Erreur de propagation de retour、Réseauàdensitémixte |
Chapitre 6 Loi du noyau | Régression du processus gaussien |
Chapitre 7 Machine du noyau avec des solutions éparses | Régression vectorielle associée |
Chapitre 8 Modèle graphique | Algorithme de somme de produits |
Chapitre 9 Modèle mixte et EM | Estimation la plus probable de la distribution gaussienne mixte |
Chapitre 10 Méthode de raisonnement approximative | Variante de distribution gaussienne mixte |
Chapitre 11 Méthode d'échantillonnage | Chaîne Markov Monte Carlo |
Chapitre 12 Variables latentes continues | Analyse en composantes principales bayésiennes |
Chapitre 13 Données de la série | Estimation la plus probable du modèle de Markov caché |
Chapitre 14 Joindre des modèles | Modèle mixte conditionnel |
Recommended Posts