Programmation Python Machine Learning Chapitre 2 Problèmes de classification - Résumé de la formation à l'algorithme d'apprentissage automatique
Dernière histoire
Résumé du chapitre 1 de la programmation Python Machine Learning
introduction
-
Ce qui est traité dans ce chapitre
-
Algorithme d'apprentissage automatique précoce
--Perceptron
- ADALINE
-
contenu de l'étude
--Développer une intuition pour les algorithmes d'apprentissage automatique
-
Chargement, traitement et visualisation des données
-
Algorithme de classification linéaire implémenté en Python
-
Exemple de code
2.1 Neurone artificiel
--Histoire
--McCulloch-Pitts Neuron (1943)
-Le but est d'élucider le mécanisme du cerveau biologique
--Premier concept de cellules cérébrales simplifiées
- Le premier concept des règles d'apprentissage de Perceptron (1957)
- Frank Rosenblatt
- Après avoir appris automatiquement le coefficient de pondération optimal, il est multiplié par le signal d'entrée pour déterminer si le neurone se déclenche ou non.
--Tâche de classification bivalente
--Mots clés
- Entrée totale
- Fonction d'activation
- Règles d'apprentissage
- Initialisez le poids avec 0 ou un petit nombre aléatoire
- Effectuez les étapes suivantes pour chaque échantillon d'apprentissage
- Calculez la valeur de sortie y
- Mettez à jour le poids
- Potentiel de convergence de Perceptron
--Conditions
- Est-il séparable linéairement?
-Est-ce que le taux d'apprentissage est assez petit?
--S'il ne converge pas
- Définir le nombre maximum d'époques et de classifications erronées
2.2 Implémenter l'algorithme d'apprentissage de Perceptron en Python
--Référence textuelle
2.3 Formation du modèle Perceptron avec le jeu de données Iris
--Classification bivalente avec les données Iris
- Méthode un contre tous pour la classification multi-classes
--Référence textuelle
2.4 ADALINE et la convergence d'apprentissage
- Algorithme Perceptron amélioré
- Montrez spécifiquement la définition de la fonction de coût et le concept de sa minimisation
- Différence de Perceptron
--Comment mettre à jour les poids
- Mise à jour du poids basée sur la fonction d'activation linéaire
--Quantificateur
- Prédiction d'étiquette de classe
- Utilisé pour calculer l'erreur de modèle et mettre à jour les poids
--Perceptron
- Étiquette de classe bivalente
- ADALINE
- Sortie de valeur continue de la fonction d'activation linéaire
2.5 Minimisation de la fonction de coût par la méthode de descente de gradient
--Fonction objective
- L'un des principaux composants d'un algorithme d'apprentissage automatique supervisé
--Optimisé pendant le processus d'apprentissage
--Fonction de coût
- Utilisé pour l'apprentissage du poids
--Somme de l'erreur au carré
--Avantages de cette fonction d'activation linéaire à valeur continue
--Différenciable
--Fonction convexe
- Méthode de descente de pente
2.5.1 Implémenter ADALINE en Python
--Référence textuelle
--Taux d'apprentissage
- Trop grand
--La somme des erreurs au carré augmente
- trop petit
- Un nombre considérable d'époques sont nécessaires pour converger
- Normalisation
--Une des méthodes de mise à l'échelle des fonctionnalités
- La moyenne de chaque fonction est définie sur 0
--Réglez l'écart type à 1.
2.6 Apprentissage automatique à grande échelle et méthode de descente de gradient probabiliste
- Méthode de descente de gradient par lots
- Ensemble de données d'entraînement global
- Si l'ensemble de données est trop volumineux, le coût du calcul sera considérable.
- Méthode de descente de gradient probabiliste (méthode de descente de gradient séquentielle, méthode de descente de gradient en ligne)
- Basé sur un échantillon de données
--Facile à sortir des valeurs minimales peu profondes
--Trier les données au hasard
- Les modèles peuvent être formés sur place lorsque de nouvelles données arrivent (apprentissage en ligne)
--Mini apprentissage par lots
--Appliquer la méthode de descente de gradient par lots à une partie des données d'entraînement (par exemple 50)
Livre de référence
Merci beaucoup.