Examiner la relation entre deux variables (2)

Aujourd'hui, je vais me tenir dans la cuisine et faire une soupe chinoise aux choux frits. Remuez bien puis goûtez un peu pour juger du résultat du plat.

Alternativement, lors d'un entretien de recrutement en entreprise, quelques dizaines de minutes de rencontres en face à face détermineront si la personne convient à un employé.

Ou, après seulement quelques mois ou un an de fréquentation, je décide de me marier comme compagnon pour le reste de ma vie.

De cette façon, inférer la population à partir de certains échantillons est l'essence même des statistiques d'inférence.

Échantillonnage

En choisissant les deux variables, nous extrairons l'échantillon de la population. Comme je l'ai expliqué précédemment, il existe différents types de Méthode d'échantillonnage.

Dans l 'exemple précédent, nous nous sommes concentrés sur 10 élèves d'une classe de lycée et avons extrait les résultats sportifs.

Cela ne veut pas dire que les notes de tous les élèves du secondaire peuvent être vues du tout. Cependant, il est possible de déduire l'ensemble avec un certain degré de précision à partir des informations statistiques de tels échantillons. En d'autres termes, l'échantillonnage n'est pas une fin en soi, mais un moyen d'appréhender l'ensemble.

Corrélation

Dans l'exemple précédent, la relation entre la force de préhension et le jet de perles semblait être quelque peu distribuée vers le haut.

Et le coefficient de corrélation était de 0,53. Il y aura une corrélation positive.

La valeur du coefficient de corrélation r (x, y) va de -1 à 1, et plus elle est proche de la valeur absolue 1, plus le degré de corrélation est fort.

Retour en ligne droite

Considérons à nouveau les deux variables x, y.

article valeur
Variante x x_1, x_2, ..., x_n
Variable y y_1, y_2, ..., y_n

Une droite passant par le centre O '(x, y) dans le diagramme de corrélation des variables x, y

y=a(x-\overline{x})+\overline{y}

N points sur

P_1(x_1,y_1), P_2(x_2,y_2), ... P_N(x_N,y_N)

Considérez la ligne droite la plus proche de.

La droite de régression de y à x est la suivante:

\frac {y-\overline{y}} {\sigma(y)} = r(x,y) \frac {x-\overline{x}} {\sigma(x)}

J'ai déjà expliqué la régression linéaire. Rappelons à nouveau la méthode des moindres carrés.

image.png

Lorsque le coefficient de corrélation est proche de 1, (r (x, y) → 1), S_0 → 0 ci-dessus, donc tous les points du diagramme de dispersion seront progressivement distribués sous une forme proche d'une ligne droite. est.

référence

Analyse statistique apprise de zéro http://www.amazon.co.jp/dp/4061546562

Recommended Posts

Examiner la relation entre deux variables (2)
Examiner la relation entre deux variables (1)
Calculez la correspondance entre deux divisions
Estimer le délai entre deux signaux
Visualisez facilement le coefficient de corrélation entre les variables
La relation subtile entre Gentoo et pip
À propos de la relation entre Git et GitHub
Modélisation-estimation de Bayes de la différence entre les deux groupes-
Étudier la relation entre les dépenses de crème glacée et la température
Examiner le double problème
Calculez le décalage horaire entre deux colonnes avec Pandas DataFrame
Comprendre la différence entre l'affectation cumulative aux variables et l'affectation cumulative aux objets
[Statistiques] Visualisons la relation entre la distribution normale et la distribution du chi carré.
J'ai étudié la relation entre le LSTM avec état de Keras et l'état caché