Aidemy 2020/10/28
Bonjour, c'est Yope! Bien que ce soit un système littéraire croustillant, j'étais intéressé par les possibilités de l'IA, alors je suis allé à l'école spécialisée en IA "Aidemy" pour étudier. Je voudrais partager les connaissances acquises ici avec vous, et je les ai résumées dans Qiita. Je suis très heureux que de nombreuses personnes aient lu l'article de synthèse précédent. Merci! Ceci est le deuxième poste de l'apprentissage supervisé. Ravi de vous rencontrer.
Quoi apprendre cette fois ・ À propos de la généralisation du modèle
-Bien que les prévisions de l'analyse de régression soient basées sur des fonctions, les fluctuations réelles des prix varient et même si les données d'entrée sont les mêmes, les résultats peuvent différer. ・ Selon ces hypothèses, si le modèle repose trop sur des données passées, la prédiction échouera. C'est ce qu'on appelle le surapprentissage, et la prévention du surapprentissage s'appelle la généralisation.
-Comme moyen de généralisation en régression linéaire, la régularisation est utilisée. La régularisation est la tentative de généraliser le modèle en pénalisant la complexité du modèle __. -Il existe deux types de régularisation: __ "régularisation L1" __ et __ "régularisation L2" __. La régularisation -L1 consiste à réduire les informations inutiles et à effectuer la régularisation en rapprochant le coefficient de données qui aura un petit effet sur la prédiction de 0. ・ La régularisation L2 consiste à éviter le surapprentissage et à effectuer une régularisation en fixant une limite à la taille du coefficient __.
-__ La régression Lasso __ fait référence à un modèle de régression qui utilise la régression L1. La régularisation -L1 est très efficace lorsqu'il y a beaucoup d'informations supplémentaires, donc par exemple, lorsque le nombre de paramètres (nombre de colonnes) est grand par rapport au nombre de __ données (nombre de lignes), la régression Lasso est utilisée. -Comment utiliser la régression Lasso doit être comme __model = Lasso () __.
-__ Ridge regression __ fait référence à un modèle de régression qui utilise la régression L2. ・ La régularisation L2 est facile à généraliser car il existe une limite supérieure sur la plage de coefficients. -Comment utiliser la régression de crête devrait être comme __model = Ridge () __.
-__ La régression ElasticNet__ fait référence à un modèle de régression qui utilise une combinaison de régression L1 et de régression L2. -Il a un grand mérite car il a un point qui sélectionne __ informations de régularisation L1 __ et un point qu'il est facile de généraliser __ de régularisation L2 __. -Pour utiliser la régression ElasticNet, définissez __model = ElasticNet () __. -Egalement, si vous spécifiez __ "l1_ratio = 0.3" __ etc. dans l'argument, vous pouvez spécifier le rapport de régularisation L1 et de régularisation L2.
・ Exécutez les trois modèles de régression ci-dessus![Capture d'écran 2020-10-28 22.59.48.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/698700/ 7aa30b99-e728-d0ab-7ade-8603f2fcca23.png)
・ Résultat![Capture d'écran 2020-10-28 22.58.30.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/698700/7994a0d0-686a-64f1- ee41-ca25cb2e5832.png)
-Il existe la régularisation comme moyen de généralisation dans la régression linéaire. ・ Il existe deux types de régularisation: la régression __L1 et la régularisation L2 __. La première est __Lasso régression __, la seconde est Ridge regression et la régression utilisant les deux est _ElasticNet regression. Appelé _.
Cette fois, c'est fini. Merci d'avoir lu jusqu'au bout.