[Statistiques psychologiques] Estimation bayésienne de la "quantité d'illusion" dans Mulleriya illusion

introduction

Cet article concerne une note de service rédigée par un statisticien novice pour suivre le cours de psychostatistique de Bayesian Statistics, il peut donc y avoir des erreurs. Je vous serais reconnaissant si vous pouviez le signaler. Si vous êtes dans la même situation, faisons de notre mieux ensemble. Le contenu sera ajouté le cas échéant.

TL;DR L'estimation ponctuelle et l'estimation d'intervalle des paramètres de la ** distribution postérieure ** de la quantité d'illusion dans l'expérience ** Mulleriya illusion ** ont été réalisées par la ** méthode d'estimation bayésienne **.

Explication des termes

Qu'est-ce que l'illusion Mulleriya?

OIP.jpg C'est une sorte d'illusion que même si les lignes ont la même longueur, elles sont perçues plus longtemps lorsqu'elles sont prises en sandwich entre des diagonales extérieures (figure B) que lorsqu'elles sont prises en sandwich entre des lignes diagonales vers l'intérieur (figure A). La différence entre la longueur de ligne réelle et la longueur de ligne perçue est appelée le ** montant de l'illusion **.

Quelle est la méthode d'estimation bayésienne?

Avant de passer à l'explication de l'estimation bayésienne, nous prendrons ** la méthode d'estimation la plus probable **, qui est représentative de la méthode conventionnelle, comme objet à comparer, et décrirons la différence dans la manière d'appréhender la relation entre le modèle et les données.

Méthode d'estimation la plus probable

La relation entre le modèle et les données dans la méthode d'estimation la plus probable est déterminée par une ** vraie valeur ** (vrai modèle), et les données sont probabilistes générées à partir du vrai modèle, donc cela dépend de la façon dont elles sont prises. L'idée est que cela change de manière probabiliste. En prenant Cointos comme exemple, même si la vraie valeur a une probabilité de 0,5, elle est en fait de 0,8 ou 0,3. Cependant, si vous répétez le tirage au sort plusieurs fois et prenez la moyenne, elle devrait approcher 0,5 ...

Quel est le modèle dans lequel ces données sont le plus susceptibles d'être obtenues lorsque les données sont fixes? L'idée de vraisemblance est de penser que, et la méthode d'estimation du modèle avec le maximum de vraisemblance est la méthode d'estimation la plus probable.

Méthode d'estimation bayésienne

En revanche, dans l'estimation bayésienne, la vraie valeur est considérée comme une ** distribution de probabilité **. Par conséquent, l'idée est que les données ne sont que des informations, et si vous ajoutez et mettez à jour de plus en plus les données, vous pouvez estimer la distribution (= distribution des vraies valeurs) qui peut mieux expliquer le phénomène. À ce stade, la distribution de probabilité des croyances subjectives sur la position de la population avant de regarder les données est appelée la ** distribution antérieure **, et la distribution de la population mise à jour après l'obtention des données est **. C'est ce qu'on appelle la distribution postérieure **. La statistique bayésienne utilise le théorème bayésien pour modéliser les phénomènes. La distribution postérieure est simplement calculée par la formule suivante.

** Post-distribution ** = (pré-distribution x vraisemblance) / distribution des données (constante de normalisation)

La méthode d'estimation la plus probable estime la valeur réelle à partir de la seule vraisemblance (avec précision, une distribution uniforme est appliquée), mais la méthode d'estimation bayésienne est affectée par la distribution antérieure et la distribution postérieure est la probabilité. Est estimé à partir du produit de la distribution précédente. Par conséquent, afin de garantir l'objectivité et l'équité, il est judicieux de sélectionner une ** distribution a priori non informative ** qui n'affecte pas autant que possible la distribution a posteriori pour la distribution a priori utilisée dans l'analyse.

Pour plus de détails, un membre du corps professoral d'une université spécialisée en psychologie sociale a trouvé dans l'article écrit qu'il existe des différences par rapport à la méthode d'estimation conventionnelle la plus probable, ainsi que des avantages et des inconvénients. Il est écrit de manière facile à comprendre, veuillez donc vous y référer (~~ L'explication ci-dessus est presque la même que l'article cité ~~).

Méthode MCMC

La distribution a posteriori pourrait être dérivée par (pré-distribution x vraisemblance) / distribution des données. Cependant, il semble difficile de résoudre analytiquement la distribution des données (intégration des constantes de normalisation). Par conséquent, dans l'estimation bayésienne, un algorithme appelé «méthode MCMC» est utilisé pour ** générer une population qui suit la distribution postérieure comme un nombre aléatoire ** et obtenir la distribution postérieure comme s'il s'agissait d'une distribution de données. La séquence de nombres aléatoires obtenue est appelée ** chaîne **.

Ce que je veux faire cette fois

Après une brève explication des termes, je voudrais confirmer ce que je veux faire cette fois.

Cette fois, les paramètres de la distribution postérieure après avoir été observés dans l'expérience d'illusion Mulleriya

-- 1. ** Estimation ponctuelle ** de $ \ mu $ (Quelle est la moyenne $ \ mu $ du "montant illusion"?) ―― 2. ** Estimation de la section de $ \ mu $ ** (Quel mm à quel mm est la moyenne $ \ mu $ de "montant illusion"?) ―― 3. ** Estimation ponctuelle ** de $ \ sigma $ (Quelle est la dispersion moyenne perçue du "montant de l'illusion" $ \ sigma $?) ―― 4. ** Estimation d'intervalle ** de $ \ sigma $ (De quel mm à quel mm est la dispersion moyenne perçue du "montant de l'illusion" $ \ sigma $?)

Je veux! Nous analyserons donc en utilisant la méthode d'estimation bayésienne.

Réglage

À la suite de 10 essais de l'expérience d'illusion Mulleriya pour un participant, la ** quantité d'illusion ** (différence entre la longueur réelle de la ligne et la longueur perçue) pour la figure A est 23,21,19,22,20,17,22,18,20,25 Il semble que c'était le cas. Cette fois, nous utiliserons ces données pour l'analyse.

Environnement d'exploitation

une analyse

Préparation

import numpy as np
import scipy as sp
import scipy.stats as stats
import pandas as pd

from IPython.core.pylabtools import figsize
from matplotlib import pyplot as plt

Préparation des données

observed_data_list =  [23,21,19,22,20,17,22,18,20,25]
observed_data = pd.Series(observed_data_list)

Échantillonnage de distribution ex post facto

Une bibliothèque Python appelée PyMC3 est utilisée pour échantillonner la distribution postérieure. Cette fois, nous supposons un modèle de distribution normal pour la distribution postérieure. Par conséquent, il y a deux paramètres à deviner: $ \ mu $ et $ \ sigma $.

Ici, l'idée de la méthode d'estimation bayésienne était que les paramètres sont également une sorte de distribution de probabilité et non des valeurs fixes. Par conséquent, les paramètres $ \ mu $ et $ \ sigma $ doivent également supposer une distribution préalable. La distribution a priori de la moyenne de la population $ \ mu $ et de l'écart-type de la population $ \ sigma $ est supposée uniforme, et les paramètres sont fixés dans une plage suffisamment large pour ne pas être subjectifs.

De plus, le nombre de nombres aléatoires générés cette fois est de 25 000, et 5 chaînes sont générées.

import pymc3 as pm

with pm.Model() as model:
  #Distribution antérieure
  mu = pm.Uniform('mu', 10, 35)
  sigma = pm.Uniform('sigma', 1, 9)
  #Responsabilité
  ml = pm.Normal('ml', mu=mu, sd=sigma, observed=observed_data)
  #échantillonnage
  trace_g = pm.sample(25000)

Burn-in

Les 5000 premiers nombres aléatoires générés ne sont probablement pas des nombres aléatoires qui suivent la distribution postérieure, ils sont donc rejetés (burn-in).

chain_g = trace_g[5000:]

Illustration de la distribution postérieure estimée

pm.traceplot(chain_g)

plt.figure()

image.png

Calcul des statistiques récapitulatives de la distribution postérieure

pm.summary()

コメント 2020-01-31 182457.jpg

Avec pm.summary (), vous pouvez calculer les statistiques récapitulatives de la distribution postérieure. $ \ Hat {R} $ est un index permettant de juger si un nombre aléatoire correspondant au modèle MCMC est généré ou non, et il semble que plus il est proche de 1, mieux c'est.

résultat de l'analyse

1. Estimation ponctuelle de la valeur moyenne de la distribution postérieure

La valeur moyenne de la distribution postérieure est appelée (= ** attendu a posteriori, EAP). D'après le tableau, le PAE pour ** $ \ mu $ était $ \ hat {\ mu_ {eap}} = $ 21,39 mm **.

2. Estimation par intervalles de la valeur moyenne de la distribution postérieure

En faisant référence aux points 2,5% et 97,5% du tableau, l'intervalle de confiance bilatéral pour ** $ \ mu $ était [18,83 mm, 24,85 mm] **.

3. Estimation ponctuelle de l'écart type de la distribution postérieure

D'après le tableau, le PAE pour ** $ \ sigma $ était $ \ hat {\ sigma_ {eap}} $ = 4,00 mm **.

4. Estimation d'intervalle de l'écart type de la distribution postérieure

En se référant aux points de 2,5% et 97,5% du tableau, l'intervalle de condamnation bilatérale pour ** $ \ sigma $ était de [2,00 mm, 6,61 mm] **.

À la fin

J'ai commencé à étudier les statistiques bayésiennes parce que c'était une rupture avec le test d'hypothèse, mais quand je lisais des livres, des mots tels que ** chain ** et ** burn-in ** volaient autour, et la procédure jusqu'à ce que j'aie les paramètres. Parce que c'est compliqué, il y a souvent des endroits comme ** "Qu'est-ce que ça fait après tout?" ** sur le chemin. Gravez avec un logiciel statistique jusqu'à maintenant! A partir du corps qui a calculé le résultat par mort cérébrale, ** Faut-il faire ce genre d'effort rien qu'en estimant les paramètres de la population ... ** et le cerveau est au bord de la ponction.

[Une addition] Apparemment, il y a des discussions dans le domaine des statistiques bayésiennes en raison de différences d'idées et d'interprétations. Par conséquent, il est recommandé d'afficher le contenu de cet article sous la forme d'un mémo unique.

Les références

[Hideki Toyoda "Nouvelle méthode révisée de statistiques psychologiques - Rupture du test de signification (matériel pédagogique de l'université de radiodiffusion)](https://www.amazon.co.jp/%E5%BF%83%E7%90%86%E7% B5% B1% E8% A8% 88% E6% B3% 95% E2% 80% 95% E6% 9C% 89% E6% 84% 8F% E6% 80% A7% E6% A4% 9C% E5% AE% 9A% E3% 81% 8B% E3% 82% 89% E3% 81% AE% E8% 84% B1% E5% 8D% B4-% E6% 94% BE% E9% 80% 81% E5% A4% A7 % E5% AD% A6% E6% 95% 99% E6% 9D% 90-% E8% B1% 8A% E7% 94% B0-% E7% A7% 80% E6% A8% B9 / dp / 4595317050 / ref = sr_1_1? __ mk_ja_JP =% E3% 82% AB% E3% 82% BF% E3% 82% AB% E3% 83% 8A & mots-clés =% E5% BF% 83% E7% 90% 86% E7% B5% B1% E8 % A8% 88% E6% B3% 95 & qid = 1580456205 & sr = 8-1) https://norimune.net/708

Recommended Posts

[Statistiques psychologiques] Estimation bayésienne de la "quantité d'illusion" dans Mulleriya illusion
Estimation de la distribution gaussienne mixte par la méthode de Bayes
Concept de raisonnement bayésien (2) ... Estimation bayésienne et distribution de probabilité
"Régression linéaire" et "Version probabiliste de la régression linéaire" en Python "Régression linéaire de Bayes"
Implémentation d'estimation la plus probable du modèle de sujet en python
Implémentation d'estimation bayésienne de variante du modèle de sujet en python