Le modèle linéaire généralisé (GLM) et le réseau neuronal sont les mêmes (1)

Cela semble un peu rugueux, mais c'est la même chose que le modèle de linéarisation général (GLM) et le perceptron multicouche du réseau neuronal. Dans les données dispersées, je vais tracer une ligne convaincante. Je pense qu'il y a beaucoup de gens qui travaillent dans les deux domaines, mais je pense que c'est plus facile à comprendre à la fois.

Dans chacune des fonctions de modélisation statistique et discriminantes, ・ Que diriez-vous de dessiner une ligne droite dans n'importe quelle donnée avec un modèle linéaire (LM)? → Trouvons des lignes non linéaires en généralisant (GLM).

Du point de vue de la modélisation statistique: modèle linéaire généralisé (GLM)

Pour le modèle linéaire et le modèle linéaire généralisé, Les matériaux pour la session d'étude de la solution statistique sont résumés ici, ce qui est assez facile à comprendre. " Matériel du Groupe d'étude statistique - Modèle linéaire généralisé du jour 2 -: Logiques du bleu "

Donc, si vous écrivez un modèle linéaire, un modèle de régression simple ou un modèle de régression multiple en général,


{ \displaystyle
y_i = \alpha + \beta_1 x_1 + \beta_2 x_2 + \beta_3 x_3 … + \beta_i x_i + \varepsilon_i
}

Lorsqu'il est écrit dans une matrice,


\begin{equation}

\left(
    \begin{array}{c}
      y_1 \\
      y_2 \\
・\\
・\\
      y_n
    \end{array} 

\right)

=

\left(

 \begin{array}{ccc}
      1 & x_{11} & x_{12} \\
      1 & x_{12} & x_{22} \\
・&・&・\\
・&・&・\\
      1 & x_{n1} & x_{n2}
    \end{array}
\right)

\left(
   \begin{array}{c}
     \alpha \\
     \beta_1 \\
・\\
・\\
     \beta_n 
    \end{array}
\right)

+

\left(
   \begin{array}{c}
     \varepsilon_1 \\
     \varepsilon_2 \\
・\\
・\\
     \varepsilon_n 
    \end{array}
\right)


\end{equation}

plus loin

y = B X + \epsilon

Peut également être écrit. Cette fois, par souci de simplicité, la variable explicative est fixée à 2.

y = \beta_1 x_1 + \beta_2 x_2 = BX

Penser à.

Ensuite, afin de supprimer la restriction de supposer seulement une distribution droite et normale de l'équation ci-dessus, Utilisez la fonction de lien sur le côté gauche de l'équation de régression. En supposant la distribution de Bernoulli, en utilisant la fonction Logit Link

\log \frac{y}{1-y} = \beta_1 x_1 + \beta_2 x_2

Le côté gauche est la fonction de lien et le côté droit est le prédicteur linéaire. Lorsque cette formule est convertie par la fonction inverse,

  y = \frac{1}{1+exp(-(\beta_1 x_1 + \beta_2 x_2))} = \frac{1}{1+exp(-BX)}  (1)

Peut être obtenu.

Dans la modélisation statistique, après cela, les paramètres sont utilisés en utilisant une fonction de vraisemblance, etc.

\beta_1  \beta_2
```Pour construire un modèle en estimant=Tracez une ligne dans les données.

 Cela s'allonge, je vais donc continuer dans l'article suivant.


Recommended Posts

Le modèle linéaire généralisé (GLM) et le réseau neuronal sont les mêmes (1)
Le modèle linéaire généralisé (GLM) et le réseau neuronal sont les mêmes (2)
Python open et io.open sont les mêmes
[Python3] "A // B" et "math.floor (A / B)" ne sont pas toujours les mêmes! ??
[PyTorch] Vérifiez si le modèle et l'ensemble de données sont en mode cuda
J'ai essayé d'utiliser GLM (modèle linéaire généralisé) pour les données de prix des actions
Calcul d'estimation / prédiction au Lasso et Ridge du modèle linéaire généralisé
Réseau neuronal avec OpenCV 3 et Python 3
Modèle de classification simple avec réseau neuronal
Théorie et implémentation simples des réseaux neuronaux
Touchez l'objet du réseau neuronal
[Pour les débutants] Pourquoi avez-vous besoin du «poids» et du «biais» du réseau neuronal?
Persister le réseau de neurones construit avec PyBrain
2. Écart moyen et standard avec le réseau neuronal!