Apprentissage automatique

** Qu'est-ce que l'apprentissage automatique **

On dit que les programmes informatiques mesurent la tâche T avec l'indice de performance P et, si ses performances sont améliorées par l'expérience E, apprennent de l'expérience E en ce qui concerne la tâche T et l'indice de performance P (Tom Mitchell 1997).

・ Supposons que vous saisissiez des données dans un programme informatique et résolvez la tâche T. ・ La sortie Y1 est émise lorsque des données inconnues sont entrées. ・ La sortie Y1 peut être mesurée par l'indice de performance P ・ Entrer de nouvelles données et sortir Y2 ・ Si Y2 est amélioré par rapport à Y1 lorsque mesuré par l'indice de performance P, on peut dire que ce programme informatique a appris.

** Régression linéaire **

  1. ** Problème de retour **
  1. ** Modèle de régression linéaire **

** Données enseignants ** $$ {(x_i, y_i) ; i = 1, ... , n} $$ ** Paramètres ** (même nombre de dimensions que les variables d'entrée) $$ w = (w_1, w_2, ... , w_m)^T \in ℝ^m $$ ** Jointure linéaire ** (produit interne du paramètre inconnu w et de l'entrée x) $$\hat{y} = w^Tx + w_0 = \sum_{j = 1}^{m} w_jx_j + w_0 $$
  1. ** Connexion linéaire ** -La somme des produits internes du paramètre inconnu w et de l'entrée x ・ Ajouter la section w_0 (section = intersection avec l'axe y, a pour effet de se déplacer en parallèle vers l'axe y) ・ Même si le vecteur d'entrée $ x_j $ est multidimensionnel, la sortie sera unidimensionnelle (scalaire).

  2. ** Paramètres du modèle ** ・ Ensemble de poids $ w_j $ (Comment le montant de la caractéristique affecte la zone prévue) ・ Estimer le meilleur gradient par la méthode du carré minimum

** Répartition des données **

** Modèle de régression non linéaire **

  1. Fonction de base $ y_i = f(x_i) + \epsilon_i $ Une fois que x est délinéarisé par une application linéaire $ \ phi , le produit interne avec w est obtenu. $ y_i = w_0 + \sum_{i=1}^{m} w_i\phi_j(x_i) + \epsilon_i $$ Exemples de fonctions de base: fonctions polymorphes, fonctions de base gaussiennes, fonctions de spline (B), etc.

  2. Régression non linéaire basée sur une fonction de base unidimensionnelle

  1. Régression non linéaire basée sur une fonction de base bidimensionnelle
  1. Méthode d'expansion de base
  1. Superapprentissage et désapprentissage

** Régularisation **

  1. Méthode de régularisation (méthode de pénalisation)
    Donner des pénalités pour réduire la complexité du modèle  $ S\gamma = (y - \Phi w)^T(y - \Phi w) + \gamma R(w) $

  2. Rôle du terme de régularisation R

  1. Paramètre $ \ gamma $ = Taille de la surface de contrainte Rendre $ \ gamma $ plus petit → Augmenter la surface de contrainte Augmenter $ \ gamma $ → diminuer la surface de contrainte

  2. Choisir le bon modèle

** Retour logistique **

  1. Problème de classification ** Variable explicative (entrée) ** $ x = (x_1, x_2, ・ ・ ・, x_m) ^ T \ dans ℝ ^ m $ ** Variable objective (sortie) ** $ y \in \{0, 1\}$
  2. Modèle de régression logistique
  1. Fonction Sigmaid
  1. Formulation de la régression logistique $ P(Y = 1|x) = \sigma(w_0 + w_1x_1 + ... + w_mx_m) $ $ (Probabilité que Y = 1 lorsque la variable explicative x est donnée) (Connexion linéaire aux paramètres de données) $
  2. Distribution de Bernoulli
  1. Estimation la plus probable (quel est le P le plus probable?)

** Probabilité de $ y_1 $ ~ $ y_n $ ** simultanés dans n essais $ P (y_1, y_2, ..., y_n; p) = \ prod_ {i = 1} {n} p ^ {y_i} (1-p) ^ {1-y_i} $ ($ P, y_i $ Est connu)

  1. Fonction de vraisemblance logarithmique
  1. Méthode de descente de gradient
  1. Méthode de descente de gradient probabiliste (SGD)
  1. Évaluation du modèle

Analyse en composantes principales (ACP)

  1. Compression dimensionnelle
  1. Problème d'optimisation des contraintes
  1. Taux de cotisation

Méthode de voisinage K

  1. Définissez la valeur initiale du centre du cluster
  2. Pour chaque point de données, calculez la distance à chaque centre de cluster et attribuez le cluster le plus proche
  3. Calculez le vecteur moyen (centre) de chaque cluster
  4. Répétez quelques étapes jusqu'à ce qu'il converge --Si vous modifiez la valeur initiale du centre, le résultat du clustering changera également. Le résultat change même si la valeur de K est modifiée

Study-AI

Recommended Posts

Apprentissage automatique
[Memo] Apprentissage automatique
Classification de l'apprentissage automatique
Exemple d'apprentissage automatique
Résumé du didacticiel d'apprentissage automatique
Apprentissage automatique sur le surapprentissage
Apprentissage automatique ⑤ Résumé AdaBoost
Apprentissage automatique: supervisé - AdaBoost
Régression logistique d'apprentissage automatique
Machine de vecteur de support d'apprentissage automatique
Étudier l'apprentissage automatique ~ matplotlib ~
Régression linéaire d'apprentissage automatique
Mémo du cours d'apprentissage automatique
Bibliothèque d'apprentissage automatique dlib
Apprentissage automatique (TensorFlow) + Lotto 6
Apprenez en quelque sorte le machine learning
Bibliothèque d'apprentissage automatique Shogun
Défi de lapin d'apprentissage automatique
Introduction à l'apprentissage automatique
Apprentissage automatique: k-voisins les plus proches
Qu'est-ce que l'apprentissage automatique?
Modèle d'apprentissage automatique prenant en compte la maintenabilité
L'apprentissage automatique appris avec Pokemon
Ensemble de données pour l'apprentissage automatique
Prétraitement japonais pour l'apprentissage automatique
Une introduction à l'apprentissage automatique
Techniques liées à l'apprentissage automatique / à la classification
Machine Learning: Supervision - Régression linéaire
Bases de l'apprentissage automatique (mémoire)
[Apprentissage automatique] Comprendre la forêt aléatoire
Apprentissage automatique avec Python! Préparation
Bloc-notes de ressources d'étude d'apprentissage automatique
Apprentissage automatique ② Résumé Naive Bayes
Résumé de l'article sur l'apprentissage automatique (auto-écrit)
À propos de la matrice mixte d'apprentissage automatique
Apprentissage automatique: forêt supervisée - aléatoire
Mémo pratique du système d'apprentissage automatique
Démineur d'apprentissage automatique avec PyTorch
Créer un environnement d'apprentissage automatique
Programmation Python Machine Learning> Mots-clés
Algorithme d'apprentissage automatique (perceptron simple)
Utilisé en EDA pour l'apprentissage automatique
Importance des ensembles de données d'apprentissage automatique
Apprentissage automatique et optimisation mathématique
Machine Learning: Supervisé - Support Vector Machine
Machine learning supervisé (classification / régression)
J'ai essayé d'implémenter Extreme Learning Machine
Commencer avec l'apprentissage automatique Python
Algorithme d'apprentissage automatique (machine vectorielle de support)
Super introduction à l'apprentissage automatique
4 [/] Quatre arithmétiques par apprentissage automatique
Apprentissage automatique ④ Résumé du K-plus proche voisin
Pokemon Machine Learning Nth décoction
Essayez le machine learning à la légère avec Kaggle
Modèle d'empilage d'apprentissage automatique (retour)
Machine Learning: Supervisé - Arbre de décision
Algorithme d'apprentissage automatique (régression logistique)
estimation personnelle en temps réel (apprentissage)
<Course> Machine learning Chapitre 6: Algorithme 2 (k-means)
Introduction à la rédaction de notes d'apprentissage automatique