Apprendre avec l'enseignant (retour) 2 édition avancée

Aidemy 2020/10/28

introduction

Bonjour, c'est Yope! Bien que ce soit un système littéraire croustillant, j'étais intéressé par les possibilités de l'IA, alors je suis allé à l'école spécialisée en IA "Aidemy" pour étudier. Je voudrais partager les connaissances acquises ici avec vous, et je les ai résumées dans Qiita. Je suis très heureux que de nombreuses personnes aient lu l'article de synthèse précédent. Merci! Ceci est le deuxième poste de l'apprentissage supervisé. Ravi de vous rencontrer.

Quoi apprendre cette fois ・ À propos de la généralisation du modèle

Généralisation du modèle

(Revue) Qu'est-ce que la généralisation?

-Bien que les prévisions de l'analyse de régression soient basées sur des fonctions, les fluctuations réelles des prix varient et même si les données d'entrée sont les mêmes, les résultats peuvent différer. ・ Selon ces hypothèses, si le modèle repose trop sur des données passées, la prédiction échouera. C'est ce qu'on appelle le surapprentissage, et la prévention du surapprentissage s'appelle la généralisation.

Régularisation

-Comme moyen de généralisation en régression linéaire, la régularisation est utilisée. La régularisation est la tentative de généraliser le modèle en pénalisant la complexité du modèle __. -Il existe deux types de régularisation: __ "régularisation L1" __ et __ "régularisation L2" __. La régularisation -L1 consiste à réduire les informations inutiles et à effectuer la régularisation en rapprochant le coefficient de données qui aura un petit effet sur la prédiction de 0. ・ La régularisation L2 consiste à éviter le surapprentissage et à effectuer une régularisation en fixant une limite à la taille du coefficient __.

Retour au lasso

-__ La régression Lasso __ fait référence à un modèle de régression qui utilise la régression L1. La régularisation -L1 est très efficace lorsqu'il y a beaucoup d'informations supplémentaires, donc par exemple, lorsque le nombre de paramètres (nombre de colonnes) est grand par rapport au nombre de __ données (nombre de lignes), la régression Lasso est utilisée. -Comment utiliser la régression Lasso doit être comme __model = Lasso () __.

Retour de crête

-__ Ridge regression __ fait référence à un modèle de régression qui utilise la régression L2. ・ La régularisation L2 est facile à généraliser car il existe une limite supérieure sur la plage de coefficients. -Comment utiliser la régression de crête devrait être comme __model = Ridge () __.

Régression ElasticNet

-__ La régression ElasticNet__ fait référence à un modèle de régression qui utilise une combinaison de régression L1 et de régression L2. -Il a un grand mérite car il a un point qui sélectionne __ informations de régularisation L1 __ et un point qu'il est facile de généraliser __ de régularisation L2 __. -Pour utiliser la régression ElasticNet, définissez __model = ElasticNet () __. -Egalement, si vous spécifiez __ "l1_ratio = 0.3" __ etc. dans l'argument, vous pouvez spécifier le rapport de régularisation L1 et de régularisation L2.

・ Exécutez les trois modèles de régression ci-dessus![Capture d'écran 2020-10-28 22.59.48.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/698700/ 7aa30b99-e728-d0ab-7ade-8603f2fcca23.png)

・ Résultat![Capture d'écran 2020-10-28 22.58.30.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/698700/7994a0d0-686a-64f1- ee41-ca25cb2e5832.png)

Sommaire

-Il existe la régularisation comme moyen de généralisation dans la régression linéaire. ・ Il existe deux types de régularisation: la régression __L1 et la régularisation L2 __. La première est __Lasso régression __, la seconde est Ridge regression et la régression utilisant les deux est _ElasticNet regression. Appelé _.

Cette fois, c'est fini. Merci d'avoir lu jusqu'au bout.

Recommended Posts

Apprendre avec l'enseignant (retour) 2 édition avancée
Apprendre avec un enseignant (retour) 1 Bases
Python: apprentissage supervisé (retour)
Machine Learning: Supervision - Régression linéaire
Machine learning supervisé (classification / régression)
Bases de l'apprentissage avec un enseignant Partie 1-Régression simple- (Remarque)
Bases de l'apprentissage avec un enseignant Partie 3-Régression multiple (mise en œuvre) - (Notes) -
Apprentissage automatique: supervisé - AdaBoost
Régression logistique d'apprentissage automatique
Régression linéaire d'apprentissage automatique
Renforcer l'apprentissage 1 édition introductive
Python: apprentissage supervisé (classification)
Python: Apprentissage supervisé: Hyper Paramètres Partie 1
Apprentissage supervisé 3 hyper paramètres et réglage (2)
Comprendre l'apprentissage automatique ~ régression de crête ~.
Apprendre avec l'enseignant 1 Principes de base de l'apprentissage avec l'enseignant (classification)
Machine Learning: Supervisé - Support Vector Machine
Prix des logements: techniques de régression avancées
Modèle d'empilage d'apprentissage automatique (retour)
Apprentissage supervisé 2 Hyper paramètres et réglage (1)
Machine Learning: Supervisé - Arbre de décision
Algorithme d'apprentissage automatique (régression logistique)
Les débutants en apprentissage automatique essaient la régression linéaire
Algorithme d'apprentissage automatique (analyse de régression multiple)
Retour logistique (pour les débutants) -Code Edition-
Apprentissage profond appris par l'implémentation 1 (édition de retour)
E-Cell 4 Advanced Edition facile à utiliser
Deep Strengthening Learning 3 Édition pratique: Briser des blocs
Introduction au Deep Learning ~ Dropout Edition ~
Régression linéaire (pour les débutants) -Édition de code-
Apprentissage automatique: analyse discriminante linéaire supervisée
Ridge Return (pour les débutants) -Code Edition-