Cette série est une brève explication de "Les bases des statistiques mathématiques modernes" par Tatsuya Kubogawa, et implémentons le contenu en python. J'ai utilisé Google Colaboratory (ci-après dénommé Colab) pour la mise en œuvre. Si vous avez des suggestions, je vous serais reconnaissant de bien vouloir les écrire dans la section des commentaires. Il peut ne pas convenir à ceux qui veulent comprendre correctement tout le contenu du livre, car il est écrit avec une position qu'il serait bien qu'il puisse être produit en ne touchant que les parties qui nécessitent des explications. Veuillez noter que si les numéros de formule et les index de proposition / définition sont écrits selon le livre, les numéros peuvent être ignorés dans cet article.
Cela commence par définir la probabilité en théorie des ensembles. Même ceux qui ne se soucient pas d'une telle définition peuvent lire ce livre. L'auteur lui-même se concentre sur les statistiques mathématiques et n'aborde que brièvement le système théorique de la théorie des probabilités. Le contenu du chapitre 1 est principalement ・ Définition de la probabilité ・ Explication des termes ・ Théorème de Bayes est. Dans 1.3 Questions d'évolution, nous utilisons ce qui est écrit sur la page précédente pour prouver la proposition (facile à suivre).
$$ La probabilité est de décrire mathématiquement un phénomène aléatoire dans le monde. Prenons un dé cubique comme exemple. Trial: J'ai jeté un dé une fois. Tous les événements / espace échantillon $ \ Omega $: $ \ Omega $ = \ {1,2,3,4,5,6 } Événement: un sous-ensemble de $ \ Omega $, tel que \ {1 }, \ {3,6 }. Dans ce livre, il est représenté par $ A $ ou $ B $. Ensemble de produits: $ A \ cap B = $ \ {$ x | x \ in A et x \ in B $ } $$ Ensemble de somme: $ A \ cup B = $ \ {$ x | x \ in A ou x \ in B $ } $$ ・ ・ ・ L'ensemble de compléments, l'ensemble de différences, la différence symétrique, etc. sont faciles à comprendre en dessinant un diagramme de Ben.
La probabilité $$ est définie par les trois suivants.
$$ (P1) $ P (A) \ geq 0 $. Pour tout $ A \ in \ mathcal {B}
. (P2) P(\Omega)=1$. (P3) Si $ A_k \ in \ mathcal {B}, k = 1,2, ..., $ sont contradictoires, c'est-à-dire $ A_i \ cap A_j = \ emptyset, i \ neq j $, $ P (\ bigcup_ {k = 1} ^ {\ infty} {A_k}) = \ sum_ {n = 1} ^ \ infty P (A_k) $ tient.
$ \ mathcal B $ est une famille d'ensemble mesurable et satisfait les propriétés suivantes: (M1)
\emptyset\in\mathcal{B} , \Omega\in\mathcal{B} . (M2) Si $ A \ in \ mathcal {B} $, alors $ A ^ c \ in \ mathcal {B} $ ($ A ^ c $ est un complément de $ A $). (M3) $ A_k \ in \ mathcal {B}, k = 1,2,3 ..., $ puis $ \ bigcup_ {k = 1} ^ {\ infty} {A_k} \ in \ mathcal B $.
Cela semble difficile, mais si vous creusez plus profondément ici, vous ne connaîtrez pas le point d'atterrissage, donc je pense que $ \ mathcal B $ est un ensemble composé d'un sous-ensemble d'espace échantillon $ \ Omega $, et $ A $ est un sous-ensemble de $ \ Omega $. S'il vous plaît. Comme avec (P3), il suffira souvent de le représenter dans le diagramme de Ben à l'avenir. $ \ Bigcup $ est un symbole qui prend l'ensemble somme d'une famille d'ensemble.
Il y a quelque chose que je dois expliquer pour comprendre le théorème de $$ bayésien.
Définition:
Lorsqu'il y a deux événements $ A $ et $ B $ et $ P (B)> 0
, $ P(A|B)=\frac{P(A \cap B)}{P(B)} \tag{1.1a} $$ Est appelée la probabilité conditionnelle de $ A $ lorsque $ B $ est donné.
$ P (A | B) $ signifie la probabilité que l'événement $ A $ se produise sous la condition que l'événement $ B $ se produise. Cela est également vrai si vous échangez des $ A $ et des $ B
$ B_1, B_2 ... $ sont des événements contradictoires, et lorsque $ P (B_k)> 0, \ bigcup_ {k = 1} ^ {\ infty} {B_k} = \ Omega $ est satisfait, l'événement $ A La probabilité de $ peut être exprimée comme suit.
$P(A)=\sum_{k=1}^\infty P(A|B_k)P(B_k) \tag{1.2} $
Cela dit, mais je pense que c'est facile à comprendre si vous regardez la figure ci-dessous. Essayez de le prouver en utilisant bien l'équation (1.1b).
(C'est $ k \ to \ infty $)![795316b92fc766b0181f6fef074f03fa-9.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/594672/fb4318be-1240- c824-aec9-23633cdb55b6.png) (L'image est tirée de https://bellcurve.jp/statistics/course/6444.html. Un merci spécial!)
Le théorème bayésien peut être prouvé en combinant la formule de probabilité conditionnelle avec la formule de probabilité complète. L'expression exacte du théorème de Bayes est la suivante.
Soit $ B_1, B_2 ... $ une séquence d'événements contradictoires et satisfasse $ P (B_k)> 0, \ bigcup_ {k = 1} ^ {\ infty} {B_k} = \ Omega $. A ce moment, pour tout événement $ A $, la probabilité conditionnelle $ P (B_j | A) $ de $ B_j $ lorsque $ A $ est donné est exprimée comme suit.
$P(B_j|A)= \frac{P(A|B_j)P(B_j)}{\sum_{k=1}^\infty P(A|B_k)P(B_k)} $
Je pense que c'est plus facile à comprendre si vous dessinez un diagramme. Il peut être dérivé en jouant avec le côté droit de la formule de probabilité conditionnelle. Le théorème de Bayes estime la cause à partir du résultat (lorsque l'événement (résultat) de $ A $ se produit, quelle est la probabilité qu'il soit dû à $ B_j (j = 1,2, ...) $) Une idée importante est.
C'est tout pour l'explication du chapitre 1. Je pense que vous pouvez comprendre l'exemple du livre en bougeant la main, donc si vous avez un livre, essayez-le.
J'ai fait un exemple de manière appropriée, donc je vais le résoudre avec python.
Corydoras = 0
Guppy = 1
Neontetora = 2
#
_p_eat = []
_p_eat.insert(Corydoras,0.1)
_p_eat.insert(Guppy,0.8)
_p_eat.insert(Neontetora,0.3)
#
_p_fish = []
_p_fish.insert(Corydoras,20/36)
_p_fish.insert(Guppy,7/36)
_p_fish.insert(Neontetora,9/36)
#
def prob_eat(fish):
if int(fish) == 0 :
return _p_eat[fish]*_p_fish[fish]
elif int(fish) == 1 :
return _p_eat[fish]*_p_fish[fish]
else:
return _p_eat[fish]*_p_fish[fish]
#
def probability(fish):
return prob_eat(fish) / (prob_eat(Corydoras) + prob_eat(Guppy) + prob_eat(Neontetora))#Résolvons ceci: Probabilité que chaque poisson mange habituellement des insectes Ratio de poisson Post-probabilité 〇〇 Probabilité de manger des insectes Lorsque le nombre total est grand, une certaine ingéniosité est requise
print(round(probability(Guppy),2))
Quand tu fais ça,
0.54
Ensuite, la probabilité que Guppy l'ait mangé est apparue.
Le chapitre 1 ressemble à ceci. Si vous en avez envie, je le ferai dans le prochain chapitre et au-delà. Merci beaucoup.
"Bases des statistiques mathématiques modernes" par Tatsuya Kubogawa