Apprentissage automatique à partir de Python Personal Memorandum Part2

Suite de la session précédente.

Un rappel sur la première moitié du chapitre 2 du livre Machine Learning Beginning with Python. Je pense que cet article est un gâchis sauf si vous lisez "L'apprentissage automatique à partir de Python". Achetons-le et étudions ensemble!

Apprendre avec un enseignant

Lorsque vous apprenez quelque chose, vous devez d'abord apprendre la langue utilisée dans cette étude ou ce domaine avant de pouvoir parler ou discuter. En tant que débutant, je ne peux pas m'engager sur cette route sans d'abord grimper petit à petit ce grand mur. C'est un peu compliqué, mais je vais vous expliquer les mots que j'entends pour la première fois en même temps.

Classification et régression

L'apprentissage automatique avec un enseignant peut être grossièrement divisé ・ Classification de classe · Revenir Peut être classé en (il s'agit d'une classification).

La classification des iris effectuée au chapitre 1 et le jugement du courrier SPAM sont également classés.

D'autre part, la régression fait référence à l'apprentissage automatique qui effectue une prédiction de valeur continue. Par exemple · Le rendement des cultures ・ Prévisions de revenus annuels ・ Fluctuation du cours de l'action Ou quelque chose.

Généralisation, sur-adaptation, sous-adaptation

L'objectif de l'apprentissage automatique est de généraliser. Si le modèle de prédiction créé à partir des données d'apprentissage peut prédire avec précision des données inconnues, le modèle est dit généralisé. Je pense que ce n'est pas grave si le modèle se sent bien.

La création d'un modèle qui donne plus d'informations que nécessaire est appelée sur-adaptation. Le contraire est appelé manque de conformité. Si la quantité d'informations est augmentée en raison d'une conformité insuffisante, la précision augmentera progressivement, mais si la quantité d'informations dépasse une certaine quantité, elle deviendra trop conforme et commencera à diminuer. C'est le modèle requis par le modèle qui donne le sweet spot (valeur maximale de précision) qui montre les meilleures performances de généralisation.

Algorithme d'apprentissage automatique supervisé

Texte d'avertissement
# Génération d'ensembles de données
X, y = mglearn.datasets.make_forge()

Cette fois

DeprecationWarning: Function make_blobs is deprecated; Please import make_blobs directly from scikit-learn
  warnings.warn(msg, category=DeprecationWarning)

Un message d'avertissement apparaîtra, mais je l'ignorerai pour le moment au fur et à mesure. Après cela, lors de l'utilisation de mglearn, de nombreux textes d'avertissement apparaissent, mais ignorez-les tous.

Université du Wisconsin

Université du Wisconsin C'est une excellente école qui figure dans le classement mondial des universités et qui a produit des lauréats du prix Nobel. Si vous lisez ce livre, vous pourrez peut-être vous faire des amis à l'Université du Wisconsin. "Ah, ce gars du Wisconsin" "Oh ouais, celui qui a un cancer du sein!" C'est comme ça.

fonction zip

Comment utiliser les fonctions Python et zip: Obtenez plusieurs éléments de liste à la fois Voir ici comment utiliser la fonction Zip.

Ingénierie de la quantité de fonctionnalités

Le produit entre les quantités de caractéristiques est appelé interaction.

méthode k-plus proche

k-Classification du voisin le plus proche

Une méthode pour référencer les k données les plus proches et décider de l'étiquette par vote (vote majoritaire). Comme il n'y a pas de poids en raison de la distance du contexte, il est possible que l'étiquette soit différente de la plus proche. La limite de la classe peut être déterminée en modifiant les deux quantités d'entités. Cette église est appelée la frontière de décision. Plus la valeur de k est élevée, plus la frontière de décision est lisse et plus la valeur de k est petite, plus le modèle peut être pris en charge complexe. Dans le livre, le nombre de k a été modifié pour trouver le nombre de références avec la plus grande précision.

régression k-proche

k-Return version de la méthode la plus proche. C'est une méthode pour adopter la valeur de la plus proche quand k = 1 et la valeur moyenne quand elle est 3 ou 9. Je pense que c'est le moyen le plus simple auquel on puisse penser.

Avantages et inconvénients

Avantages: Facile à comprendre, précision assez élevée sans réglage Inconvénients: les ensembles d'entraînement plus volumineux ralentissent, les ensembles de données rares fonctionnent mal Pour cette raison, il est rarement utilisé dans la pratique.

Modèle linéaire

Régression linéaire

C'est la méthode des moindres carrés. Une méthode pour adopter des paramètres qui minimisent l'erreur lorsqu'ils sont au carré.

Retour de crête

Tout à coup, il est devenu peu clair. Il y a trop peu d'explications pour la régularisation L2. .. .. Surapprentissage et régularisation L2 Si vous consultez cette page, cela aurait été plus facile à imaginer. en bref, "Incliner" w Pour optimiser non seulement pour les prédictions sur les données d'entraînement, mais aussi pour d'autres contraintes (← je ne suis pas sûr ici) Je veux que w soit plus petit que l'ajustement aux données d'entraînement (résultats obtenus par la méthode des moindres carrés). Par conséquent, une pénalité de somme des carrés est donnée à la taille de w pour la rendre plus petite exprès.

Plus la pénalité est petite, plus elle est proche d'un modèle linéaire, Si la pénalité est importante, w s'approche de 0. En d'autres termes, si vous souhaitez généraliser, vous pouvez augmenter la pénalité, mais combien vous devez augmenter dépend du modèle.

Ouaip. Je ne sais pas comment le dire moi-même.

Lasso C'est une pénalité pour la somme des valeurs absolues, mais à ce moment-là, il semble que le coefficient ait tendance à être 0. Il a été écrit pour être utilisé lorsque vous souhaitez réduire des variables. Je ne suis pas sûr, alors je vais l'étudier en détail et écrire un article.

Modèle linéaire pour la classification

Le modèle linéaire lors de la classification se classe selon que la valeur de la fonction est supérieure ou inférieure à 0. La régression logistique est incluse dans la régression, mais cela semble être un algorithme de classification. La différence entre SVC linéaire et régression logistique n'était pas claire.

Classification multi-classes par modèle linéaire

Une approche un à l'autre (un contre le repos) a été expliquée. Il est classé en le classant dans une classe et dans l'autre, et en le faisant pour toutes les classes. Je comprends ce que vous dites, mais au final, il semble que vous n'utilisez que scicit-learn et que vous n'approfondissez pas votre compréhension. .. .. Je sais comment l'utiliser, donc je suppose que c'est à partir de là que je peux m'habituer.

Recommended Posts

Apprentissage automatique à partir de Python Personal Memorandum Part2
Apprentissage automatique à partir de Python Personal Memorandum Part1
Apprentissage amélioré à partir de Python
Apprentissage automatique avec Python! Préparation
Commencer avec l'apprentissage automatique Python
Apprentissage automatique par python (1) Classification générale
Mémo d'apprentissage "Scraping & Machine Learning avec Python"
Prédire la demande de puissance avec l'apprentissage automatique, partie 2
Amplifiez les images pour l'apprentissage automatique avec Python
Apprentissage automatique avec python (2) Analyse de régression simple
[Shakyo] Rencontre avec Python pour l'apprentissage automatique
Analyse de données à partir de python (pré-traitement des données-apprentissage automatique)
Construction d'environnement AI / Machine Learning avec Python
[Python] Introduction facile à l'apprentissage automatique avec python (SVM)
Apprendre Python avec ChemTHEATER 03
"Orienté objet" appris avec python
Apprendre Python avec ChemTHEATER 05-1
Mémorandum Python (signet personnel)
EV3 x Python Machine Learning Partie 2 Régression linéaire
Python à partir de Windows 7
[Note] Python, lors du démarrage du machine learning / deep learning [Liens]
[Python] Collectez des images avec Icrawler pour l'apprentissage automatique [1000 feuilles]
Apprendre Python avec ChemTHEATER 02
Mémorandum de base Python partie 2
Apprentissage automatique à partir de zéro (apprentissage automatique appris avec Kaggle)
GRPC commençant par Python
Apprendre Python avec ChemTHEATER 01
J'ai commencé l'apprentissage automatique avec le prétraitement des données Python
Créer un environnement d'apprentissage automatique Python avec des conteneurs
Machine learning facile avec AutoAI (partie 4) Jupyter Notebook
Exécutez un pipeline de machine learning avec Cloud Dataflow (Python)
Créer un environnement de développement d'applications d'apprentissage automatique avec Python
Résumé du flux de base de l'apprentissage automatique avec Python
Traitement d'image avec Python (partie 2)
L'apprentissage automatique appris avec Pokemon
Etudier Python avec freeCodeCamp part1
Images en bordure avec python Partie 1
Grattage avec Selenium + Python Partie 1
Python: Apprentissage supervisé: Hyper Paramètres Partie 1
Etudier Python avec freeCodeCamp part2
Traitement d'image avec Python (partie 1)
Résolution de Nampre avec Python (partie 2)
Démineur d'apprentissage automatique avec PyTorch
Traitement d'image avec Python (3)
Programmation Python Machine Learning> Mots-clés
Python: apprentissage supervisé: Hyper Paramètre partie 2
Grattage avec Selenium + Python Partie 2
Traitement itératif Python appris avec ChemoInfomatics
Python commençant par Hello world!
Essayez le machine learning à la légère avec Kaggle