[Statistiques] Visualisation pour comprendre le modèle mixte linéaire généralisé (GLMM).

** «Introduction à la modélisation statistique pour l'analyse des données» ** (communément appelé Midoribon) à la p157, l'idée de «mélanger les distributions» est simulée sur la base de nombres aléatoires au lieu d'une réflexion basée sur des distributions et visualisée avec une animation. Je l'ai essayé, alors je voudrais le présenter.

Voici l'animation résultante. J'expliquerai ce contenu dans le texte. mix_poisson_norm.gif (Le code est ici)

Toutes les explications détaillées sont écrites dans ce "Midoribon" d'une manière facile à comprendre, donc ici nous expliquerons seulement comment le visualiser. Si vous pensez que cela semble intéressant, achetez-le!

Préface

Un maximum de 8 graines sont produites dans une plante, mais le nombre de graines survivantes est une distribution binomiale.

p(y_i) ={8 \choose y_i}\ q_i^{y_i} (1-q_i)^{8-y_i} \quad \mbox{for}\ q_i=0,1,2,\dots,8

Supposons que vous suivez. $ y_i $ est le nombre de graines survivantes (valeur observée) de l'individu $ i $, et $ q_i $ est la probabilité de survie par graine de l'individu $ i $.

Supposons également que ce $ q_i $ présente des différences individuelles qui diffèrent d'un individu à l'autre et est représenté par une fonction logistique.

q_i = {\rm logistic} (r_i)= {1 \over 1 + \exp( -r_i) }

Nous supposons également que l'argument $ r_i $ de cette fonction logistique suit une distribution normale avec une moyenne de 0 et un écart type de $ s $.

r_i \sim N(0, s)

Autrement dit, la fonction de densité de $ r_i $ est

p(r_i | s) = {1 \over \sqrt{2\pi s^2} } \exp \left( -{r_i^2 \over 2s^2} \right)

Et ceci est considéré comme la différence individuelle de chaque $ i $.

Visualisons-le.

Maintenant, d'abord, la différence individuelle $ r_i \ sim N (0, s) $ est illustrée. Généré 10000 nombres aléatoires qui suivent la distribution normale lorsque l'écart type est $ s = 4 $. L'histogramme est la barre bleu clair ci-dessous. Fonction logistique où chacun d'eux est représenté par une ligne rouge

q_i = {\rm logistic} (r_i)= {1 \over 1 + \exp( -r_i) }

Convertit en une valeur de 0 à 1, c'est-à-dire une valeur qui peut être considérée comme une probabilité, c'est-à-dire $ q_i $.

norm_logistic-compressor.png

Puisque chacun de ces nombres aléatoires normaux pourrait être converti en la probabilité $ q_i $, ce qui suit en est une représentation sous forme d'histogramme de $ q_i $. C'est une distribution normale relativement large, et vous pouvez voir qu'elle est plus proche de 0 et 1 en raison de l'effet de la conversion avec une fonction logistique. hist_of_q-compressor.png

Donc, pour chacun de ces 10000 $ q_i $, faites correspondre une distribution binomiale. La distribution binomiale est

p(y_i) ={8 \choose y_i}\ q_i^{y_i} (1-q_i)^{8-y_i} \quad \mbox{for}\ q_i=0,1,2,\dots,8

Donc, la forme est différente pour chaque $ q_i $. Voici un exemple de 9 valeurs où $ q_i $ est [0,0, 0,125, 0,25, 0,375, 0,5, 0,625, 0,75, 0,875, 1,0].

various_binomial-compressor.png

Générez un grand nombre de distributions binomiales comme ci-dessus en fonction de la valeur de 10000 $ q_i $ et additionnez-les ensemble. Voici le résultat de l'ajout.

sum_of_binom-compressor.png

Essayez d'animer

Dans la section précédente, j'ai essayé de représenter graphiquement l'exemple de $ s = 4 $, mais j'ai également publié l'animation de la façon dont $ s $ se déplace continuellement de 0 à 3 dans le graphique ci-dessous. Devenir. Dans cet exemple, la distribution semble se déplacer vers la gauche et la droite d'environ $ s = 2 $.

mix_poisson_norm.gif

Livre de référence

Une introduction à la modélisation statistique pour l'analyse des données    http://hosho.ees.hokudai.ac.jp/%7Ekubo/ce/IwanamiBook.html

Recommended Posts

[Statistiques] Visualisation pour comprendre le modèle mixte linéaire généralisé (GLMM).
Introduction au modèle linéaire généralisé (GLM) par Python