Aidemy 2020/10/28
Bonjour, c'est Yope! Bien que ce soit un système littéraire croustillant, j'étais intéressé par les possibilités de l'IA, alors je suis allé à l'école spécialisée en IA "Aidemy" pour étudier. Je voudrais partager les connaissances acquises ici avec vous, et je les ai résumées dans Qiita. Je suis très heureux que de nombreuses personnes aient lu l'article de synthèse précédent. Merci! Il s'agit du premier poste d'apprentissage supervisé (retour). Ravi de vous rencontrer.
Quoi apprendre cette fois ・ À propos de l'apprentissage supervisé (retour) ・ Méthode de régression linéaire
・ Il existe trois méthodes d'apprentissage automatique. «Apprendre avec l'enseignant» «Apprendre sans l'enseignant» «Renforcer l'apprentissage». ・ Parmi ceux-ci, l'apprentissage supervisé peut être divisé en deux catégories: «classification» et «retour». La régression apprise cette fois prédit des valeurs continues telles que le prix de l'action et le prix du marché. __
-La régression linéaire est __ qui prédit le mouvement des données après celui de la formule (graphique = linéaire) des données déjà connues. Le graphique à ce moment est toujours une ligne droite (fonction linéaire).
-__ Le coefficient déterminant__ indique dans quelle mesure les données prédites par la régression linéaire et les données réelles correspondent. -Dans scikit-learn utilisé pour l'apprentissage supervisé, le coefficient de décision prend une valeur comprise entre __0 et __. On peut dire que plus la valeur est élevée, plus le degré d'accord est élevé. -Lors de la sortie du coefficient de décision, utilisez __print (model.score (test_X, test_y)) __.
-La régression simple linéaire est une régression linéaire __ qui obtient une donnée (y) à prédire à partir d'une donnée (x). -C'est-à-dire que cela signifie que __a et b sont déduits, en supposant que les données peuvent être représentées par "y = ax + b". ・ Pour l'estimation de a et b, on est la méthode __ du carré minimum __. Il s'agit de définir a et b tels que __ la somme des carrés de la différence entre le y réel et le y estimé (c'est-à-dire ax + b) soit minimisée. -La raison pour laquelle la différence est mise au carré par cette méthode est qu'il n'est pas nécessaire de considérer le positif ou le négatif des données.
-Pour utiliser la régression linéaire (simple), utilisez __ "model = LinearRegression ()" __.
-Effectuez une régression linéaire simple![Capture d'écran 2020-10-28 22.51.22.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/698700/81a106d8- 132a-1d47-1c60-aeb09af5f07b.png)
・ __Linear multiple regression __ est une régression linéaire dans laquelle une donnée (y) doit être prédite et plusieurs données (x1, x2 ...) __ sont utilisées pour __prediction. .. -C'est-à-dire qu'il s'agit de déduire a et b, en supposant que les données peuvent être représentées par "y = a1x1 + a2x2 ... + b". -Même en régression multiple linéaire, la prédiction de a et b est effectuée par la méthode du carré minimum. -Vous pouvez également utiliser LinearRegression (). Il détermine automatiquement s'il s'agit d'une régression simple ou d'une régression multiple.
-Effectuez une régression multiple linéaire![Capture d'écran 2020-10-28 22.52.10.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/698700/e8978f4f- 77ce-3b68-24fd-8d851359c030.png)
-La régression linéaire, qui est un apprentissage supervisé (régression), prédit le mouvement des données après celui de la formule de données déjà connue (graphe = linéaire). -La régression linéaire comprend la "régression simple linéaire", qui prédit une chose, et la "régression multiple linéaire", qui a des prédictions multiples.
Cette fois, c'est fini. Merci d'avoir lu jusqu'au bout.