[Français] scikit-learn 0.18 Guide de l'utilisateur Table des matières

google traduit http://scikit-learn.org/0.18/user_guide.html Cliquez ici pour le tutoriel


Mode d'emploi

1. Apprentissage supervisé

1.1. Modèle linéaire généralisé : us: non traduit

  1. Méthode du carré minimum
  2. La complexité de la méthode des moindres carrés
  3. Retour de crête
  4. Complexité de la crête
  5. Réglage des paramètres de normalisation: vérification mutuelle généralisée
  6. Contraction absolue minimale et opérateur de sélection --Lasso
  7. Définition des paramètres de régularisation
  8. Recours à la vérification mutuelle
  9. Sélection de modèles basée sur l'information
  10. Lasso multitâche
  11. Elastic Net
  12. Filet élastique multitâche
  13. Régression d'angle minimum --LARS
  14. LARS Lasso
  15. Prescription mathématique
  16. Poursuite de l'appariement orthogonal (OMP)
  17. Retour basian
  18. Retour Bage Anridge
  19. Validation automatique --ARD
  20. Retour logistique
  21. Descente de gradient probabiliste-SGD
  22. Perceptron
  23. Algorithme agressif passif
  24. Régression de robustesse: valeurs aberrantes et erreurs de modélisation
  25. Différents scénarios et concepts utiles 2. RANSAC:RANdom SAmple Consensus
  26. Détails de l'algorithme
  27. Estimateur Theil-Sen: estimateur basé sur la généralisation
  28. Considération théorique
  29. Retour de l'aspirateur
  30. Remarques
  31. Régression polygonale: extension du modèle linéaire avec fonction de base

1.2. Analyse de discrimination linéaire et quadratique non traduite

  1. Réduction dimensionnelle à l’aide d’une analyse discriminante linéaire
  2. Formulation mathématique des classificateurs LDA et QDA
  3. Formulation mathématique de la réduction de dimension LDA
  4. Rétrécissement
  5. Algorithme d'estimation

1.3. Kernel Ridge Return : us: Untranslated

1.4. Support Vector Machine: jp:

  1. Classification
  2. Classification multiclasse
  3. Score et probabilité
  4. Problème déséquilibré
  5. Retour
  6. Estimation de la densité, détection de nouveauté
  7. Complexe
  8. Conseils pratiques
  9. Fonction du noyau
  10. Noyau personnalisé
  11. Utilisez les fonctions Python comme noyau
  12. Utilisation de la matrice gramme
  13. Paramètres du noyau RBF
  14. Prescription mathématique
    1. SVC
    2. NuSVC
    3. SVR
  15. Détails de mise en œuvre

1.5. Descente de gradient probabiliste : us: non traduit

  1. Classification
  2. Retour
  3. Descente de gradient probabiliste de données rares
  4. Complexe
  5. Conseils pratiques
  6. Prescription mathématique
    1. SGD
  7. Détails de mise en œuvre

1.6. Méthode la plus proche : us: non traduite

  1. Méthode du voisin le plus proche sans enseignant
  2. Trouvez le voisin le plus proche
  3. Classe KDTree et classe BallTree
  4. Classification la plus proche
  5. Régression la plus proche
  6. Algorithme de méthode du voisin le plus proche
  7. Force brute
  8. Arbre K-D
  9. Arbre à boules
  10. Sélection de l'algorithme du plus proche voisin
  11. Effet de leaf_size
  12. Classificateur du centre de gravité le plus proche
  13. Centroïde rétréci le plus proche
  14. Quartier approximatif à proximité
  15. Forêt de hachage sensible à la communauté
  16. Description mathématique du hachage de sensibilité locale

1.7. Processus gaussien : us: non traduit

  1. Régression de processus gaussien (GPR)
  2. Exemple GPR
  3. GPR avec estimation du niveau de bruit
  4. Comparaison du GPR et de la régression des crêtes de noyau
  5. GPR des données de CO2 du Mauna Loa
  6. Classification des processus gaussiens (GPC)
  7. Exemple de GPC
  8. Prédiction probabiliste par GPC
  9. Schéma de GPC sur l'ensemble de données XOR
  10. Classification des processus gaussiens (GPC) dans l'ensemble de données de l'iris
  11. Noyau de processus gaussien
  12. API du noyau de processus gaussien
  13. Noyau de base
  14. Opérateur de noyau
  15. Noyau de fonction de base radiale (RBF)
  16. Noyau Matteran
  17. Noyau secondaire raisonnable
  18. Noyau Exp-Sine-Squared
  19. Noyau de produit scalaire
  20. Références
  21. Processus gaussien hérité
  22. Exemple de régression d'introduction
  23. Mise en place de données bruyantes
  24. Prescription mathématique
  25. Première hypothèse
  26. Meilleure prédiction linéaire sans biais (BLUP)
  27. Meilleur prédicteur de biais linéaire empiriquement (EBLUP)
  28. Modèle de corrélation
  29. Modèle de régression
  30. Détails de mise en œuvre

1.8. Décomposition croisée : us: non traduit

1.9. Naive Bayes : us: Non traduit

  1. Gauss Naive Bayes
  2. Polygon Naive Bayes
  3. Bernouy Naive Bayes
  4. Ajustement du modèle de baies naïves hors cœur

1.10. Arbre de décision : us: non traduit

  1. Classification
  2. Retour
  3. Problème de sortie multiple
  4. Complexe
  5. Conseils pratiques
  6. Algorithme d'arborescence: ID3, C4.5, C5.0 et CART
  7. Prescription mathématique
  8. Critères de classification
  9. Critères de régression

1.11. Méthode d'ensemble: jp:

  1. Méta-estimateur d'ensachage
  2. Forêt arborée aléatoire
  3. Forêt aléatoire
  4. Arbre hautement aléatoire
  5. Paramètres
  6. Parallélisation
  7. Évaluation de l'importance fonctionnelle
  8. Incorporation d'arbres entièrement aléatoire
  9. AdaBoost
  10. Utilisation
  11. Boost d'arbre de dégradé
  12. Classification
  13. Retour
  14. Adapter les apprenants faibles supplémentaires
  15. Contrôle de la taille des arbres
  16. Prescription mathématique
  17. Fonction de perte
  18. Normalisation
  19. Rétrécissement
  20. Sous-échantillonnage
  21. Interprétation
  22. Importance de la fonction
  23. Partiellement dépendant
  24. VotingClassifier
  25. La plupart des labels de classe (décision majoritaire / sélection minutieuse)
  26. Utilisation
  27. Probabilité moyenne pondérée (vote modéré)
  28. Utiliser le classificateur de vote avec la recherche de grille
  29. Utilisation

1.12. Algorithme multi-classes et algorithme multi-étiquettes: jp:

  1. Format de classification multi-étiquettes
  2. Un repos
  3. Apprentissage multi-classes
  4. Apprentissage multi-étiquettes
  5. 1 à 1
  6. Apprentissage multi-classes
  7. Code de sortie de correction d'erreur
  8. Apprentissage multi-classes
  9. Régression multi-sorties
  10. Classification de plusieurs produits

1.13. Sélection des fonctionnalités: jp:

  1. Supprimer les entités à faible dispersion
  2. Sélection de la fonction univariée
  3. Suppression des fonctionnalités récursives
  4. Sélection des fonctionnalités à l'aide de SelectFromModel
  5. Sélection de fonctionnalités basée sur L1
  6. Modèle épars randomisé
  7. Sélection des fonctionnalités par arborescence
  8. Sélection des fonctions dans le cadre du pipeline

1.14. Semi-enseignant : us: non traduit

  1. Propagation des étiquettes

1.15. Retour isotonique: jp:

1.16. Étalonnage des probabilités: jp:

1.17. Modèle de réseau neuronal (avec professeur) : us: non traduit

  1. Perceptron multicouche
  2. Classification
  3. Retour
  4. Normalisation
  5. Algorithme
  6. Complexe
  7. Prescription mathématique
  8. Conseils pratiques
  9. Plus de contrôle avec warm_start

2. Apprentissage non supervisé

2.1. Modèle mixte gaussien : us: non traduit

  1. Gauss mixte
  2. Avantages et inconvénients du mélange gaussien
  3. Avantages
  4. Inconvénients 2 Sélection du nombre de composants dans le modèle mixte gaussien classique
  5. L'algorithme d'estimation maximise la valeur attendue
  6. Variante Bayes Gauss mixte
  7. Algorithme d'estimation: inférence de variantes
  8. Avantages et inconvénients de l'inférence de transformation avec un mélange gaussien bayésien
  9. Avantages
  10. Inconvénients
  11. Processus Diricre

2.2. Apprentissage multiple : us: non traduit

  1. Introduction
  2. Isomap
  3. Complexe
  4. Incorporation localement linéaire
  5. Complexe
  6. Incorporation linéaire modifiée localement
  7. Complexe
  8. Cartographie unique de la matrice de Hesse
  9. Complexe
  10. Incorporation spectrale
  11. Complexe
  12. Alignement de l'espace tangent local
  13. Complexe
  14. Mise à l'échelle multidimensionnelle (MDS)
  15. MDS métrique
  16. MDS non métrique
  17. Incorporation probabiliste de voisinage distribuée en t (t-SNE)
  18. Optimisation du t-SNE
  19. Burns chapeau t-SNE
  20. Conseils pratiques

2.3. Clustering : us: Untranslated

  1. Présentation de la méthode de clustering
  2. K moyen
  3. Mini lot K-Means
  4. Propagation d'affinité
  5. Changement moyen
  6. Regroupement du spectre
  7. Différence dans la méthode d'attribution des étiquettes
  8. Regroupement hiérarchique
  9. Différents types de liaison: Ward, liaison moyenne complète
  10. Ajouter une contrainte de connexion
  11. Modifier la métrique
  12. Clustering spatial basé sur la densité (DBSCAN)
  13. Réduction itérative et regroupement hiérarchiques équilibrés (BIRCH)
  14. Évaluation des performances des regroupements
  15. Indice foncier ajusté
  16. Avantages
  17. Inconvénients
  18. Prescription mathématique
  19. Notation mutuelle basée sur l'information
  20. Avantages
  21. Inconvénients
  22. Prescription mathématique
  23. Homogénéité, exhaustivité et échelle en V
  24. Avantages
  25. Inconvénients
  26. Prescription mathématique
  27. Score de Fowlkes-Mallows
  28. Avantages
  29. Inconvénients
  30. Coefficient de silhouette
  31. Avantages
  32. Inconvénients
  33. Index Karinsky Harabaz
  34. Avantages
  35. Inconvénients

2.4. Biclustering : us: non traduit

  1. Co-clustering spectral
  2. Prescription mathématique
  3. Spectre par clustering
  4. Prescription mathématique
  5. Évaluation en deux clusters

2.5. Décomposer le signal dans le composant (problème de décomposition de la matrice): jp:

  1. Analyse en composantes principales (ACP)
  2. ACP précise et interprétation probabiliste
  3. ACP incrémentale
  4. PCA avec SVD aléatoire
  5. PCA du noyau
  6. Analyse fragmentaire des principaux composants (SparsePCA et MiniBatchSparsePCA)
  7. Décomposition de la singularité de la troncature et analyse de la signification latente
  8. Apprentissage du dictionnaire
  9. Codage parcimonieux avec un dictionnaire pré-calculé
  10. Apprentissage général du dictionnaire
  11. Apprentissage du dictionnaire par mini-lots
  12. Analyse factorielle
  13. Analyse indépendante des composants (ICA)
  14. Décomposition matricielle non négative (NMF ou NNMF)
  15. Affectation potentielle de direction (LDA)

2.6. Estimation de la covariance : us: non traduit

  1. Co-dispersion empirique
  2. Co-distribution de réduction
  3. Contraction de base
  4. Ledoit-Wolf Shrink
  5. Contraction approximative d'Oracle
  6. Co-dispersion inverse clairsemée
  7. Estimation de covariance robuste
  8. Formule matricielle de covariance minimale

2.7. Détection des nouveautés et des valeurs aberrantes: jp:

  1. Détection de nouveauté
  2. Détection des valeurs aberrantes
  3. Installez l'enveloppe ovale
  4. Forêt d'isolement 3.1 Classe SVM vs enveloppe elliptique vs forêt d'isolement

2.8. Estimation de la densité: jp:

  1. Estimation de la densité: histogramme
  2. Estimation de la densité du noyau

2.9. Modèle de réseau neuronal (sans enseignant) : us: non traduit

  1. Machine Boltzmann limitée
  2. Modèle graphique et paramétrage
  3. Machine Boltsman limitée Bernoulli
  4. Apprentissage probabiliste le plus probable

3. Sélection et évaluation du modèle

3.1. Validation croisée: évaluer les résultats de l'estimateur: jp:

  1. Calcul des métriques à validation croisée
  2. Obtention de prévisions par validation croisée
  3. Itérateur de vérification croisée
  4. Données d'itérateur de validation croisée i.i.d
  5. K fois 2. Leave One Out(LOO) 3. Leave P Out(LPO)
  6. Vérification mutuelle de remplacement aléatoire a.k.a. Shuffle & Split
  7. Itérateur de validation mutuelle avec hiérarchie basée sur l'étiquette de classe
  8. couches K fois
  9. Fractionnement aléatoire en couches
  10. Itérateur de validation mutuelle pour les données groupées
  11. Groupe k fois
  12. Quittez un groupe
  13. Quitter le groupe P
  14. Répartition aléatoire du groupe
  15. Fold-Split / Validation-Sets prédéfinis
  16. Vérification mutuelle des données de séries chronologiques
  17. Division des séries chronologiques
  18. Précautions de lecture aléatoire
  19. Vérification mutuelle et sélection du modèle

3.2. Estimator Hyper Parameter Tuning: jp:

  1. Recherche de grille complète
  2. Optimisation des paramètres aléatoires
  3. Conseils de recherche de paramètres
  4. Spécification des mesures objectives
  5. Estimations composites et espace des paramètres
  6. Sélection du modèle: élaboration et évaluation
  7. Parallèle
  8. Robustesse au handicap
  9. Alternative à la recherche de paramètres Bruteforce
  10. Validation mutuelle spécifique au modèle
  11. Norme d'information
  12. Autres estimateurs

3.3. Évaluation du modèle: quantifier la qualité de la prédiction: jp:

  1. Paramètre de score: définition de la règle d'évaluation du modèle
  2. Cas général: valeur prédéfinie
  3. Définir une stratégie de notation à partir d'une fonction métrique
  4. Implémentation de votre propre objet de notation
  5. Métrique de classification
  6. Du binaire au multi-classes et multi-étiquettes
  7. Score de précision
  8. Kappa de Cohen
  9. Matrice de confusion
  10. Rapport de classification
  11. Perte de fredonnement
  12. Score du coefficient de similarité de Jacquard
  13. Précision, rappel, mesures F
  14. Classification binaire
  15. Classification des multi-classes et multi-étiquettes
  16. Perte de charnière
  17. Perte de journal
  18. Coefficient de corrélation de Matthews
  19. Caractéristiques de fonctionnement du récepteur (ROC)
  20. Zéro une perte
  21. Perte de score Breather
  22. Mesure de classement multi-étiquettes
  23. Erreur de couverture
  24. Précision moyenne du classement des étiquettes
  25. Perte de classement
  26. Métrique de régression
  27. Score de variance décrit
  28. Erreur absolue moyenne
  29. Erreur quadratique moyenne
  30. Erreur absolue centrale
  31. Score R², facteur de décision
  32. Métrique de clustering
  33. Estimateur factice

3.4. Persistance du modèle: flag_jp:

  1. Exemple de persistance
  2. Limites de sécurité et de maintenabilité

3.5. Courbe de vérification: tracer le score pour évaluer le modèle: jp:

  1. Courbe de vérification
  2. Courbe d'apprentissage

4. Conversion de jeux de données

4.1. Pipeline and Feature Union: Estimator combination: jp:

  1. Pipeline: estimateur de chaîne
  2. Utilisation
  3. Remarque
  4. FeatureUnion: espace de fonctionnalités composite
  5. Utilisation

4.2. Extraction de fonctionnalités: jp:

  1. Chargement des fonctionnalités à partir des dictionnaires
  2. Hachage des fonctionnalités
  3. Détails de mise en œuvre
  4. Extraction de fonctionnalités de texte
  5. Notation de mot
  6. Rareté
  7. Comment utiliser le vectoriseur commun
  8. Pondération du terme Tf-idf
  9. Décodage des fichiers texte
  10. Applications et échantillons
  11. Limitations d'expression dans Sac de mots
  12. Vectoriser un corpus de texte volumineux à l’aide d’astuces
  13. Effectuez une mise à l'échelle hors cœur avec HashingVectorizer
  14. Classe de vectorisation personnalisée
  15. Extraction de caractéristiques d'image
  16. Extraction de patch
  17. Graphique de connectivité des images

4.3. Prétraitement des données: jp:

  1. Standardisation, élimination moyenne et mise à l'échelle de la dispersion
  2. Mise à l'échelle des fonctionnalités à la plage
  3. Mise à l'échelle des données éparses
  4. Mise à l'échelle des données contenant des valeurs aberrantes
  5. Matrice de centrage du noyau
  6. Normalisation
  7. Binarisation
  8. Binarisation des fonctionnalités
  9. Encodez la fonction de la catégorie
  10. Achèvement des valeurs manquantes
  11. Générer des caractéristiques polymorphes
  12. Transformateur personnalisé

4.4. Réduction de dimension sans enseignant: jp:

  1. PCA: analyse en composantes principales
  2. Projection aléatoire
  3. Agglomération de caractéristiques

4.5. Projection aléatoire: jp:

  1. Supplément Johnson-Lindenstrauss
  2. Projection aléatoire gaussienne
  3. Projection aléatoire éparse

4.6. Approximation du noyau : us: non traduit

  1. Méthode Nystroem pour l'approximation du noyau
  2. Noyau de fonction de base radiale
  3. Additive Chi Squared Kernel
  4. Noyau chi carré asymétrique
  5. Détails des mathématiques

4.7. Métriques par paires, similitudes et noyaux

  1. Similitude cosinus
  2. Noyau linéaire
  3. Noyau polygonal
  4. Noyau Sigmaid
  5. Noyau RBF
  6. Noyau laplacien
  7. Noyau du chi carré

4.8. Transformer la cible de prédiction (y): jp:

  1. Binarisation des étiquettes
  2. Codage des étiquettes

5. Utilitaire de lecture de l'ensemble de données : us: non traduit

  1. API d'ensemble de données générales
  2. Jeu de données sur les jouets
  3. Exemple d'image
  4. Générateur d'échantillons
  5. Générateur de classification et de regroupement
  6. Étiquette unique
  7. Multi-étiquettes 3. Biclustering
  8. Générateur de régression
  9. Générateur pour un apprentissage diversifié
  10. Générateur de démontage
  11. Ensemble de données au format svmlight / libsvm
  12. Chargement à partir d'un ensemble de données externe
  13. Olivetti fait face à l'ensemble de données
  14. 20 ensembles de données textuelles de groupes de discussion
  15. Utilisation
  16. Convertissez le texte en vecteur
  17. Filtrage de texte pour une formation plus réaliste
  18. Téléchargez le jeu de données depuis le référentiel mldata.org
  19. Visages étiquetés dans le jeu de données de reconnaissance de visage sauvage
  20. Utilisation
  21. Exemple
  22. Déforestation
  23. Ensemble de données RCV1
  24. Ensemble de données sur les prix des maisons de Boston
  25. Remarque
  26. Base de données (diagnostic) du cancer du sein dans le Wisconsin
  27. Remarque
  28. Références
  29. Ensemble de données sur le diabète
  30. Remarque
  31. Reconnaissance optique des données numériques manuscrites
  32. Remarque
  33. Références
  34. Base de données des plantes Iris
  35. Remarque
  36. Références
  37. Ensemble de données Linnerrud
  38. Remarque
  39. Références

6. Stratégie d'expansion informatique: données plus volumineuses : us: non traduites

  1. Mise à l'échelle des instances à l'aide de l'apprentissage hors cœur
  2. Instance de streaming
  3. Extraction de fonctionnalités
  4. Apprentissage incrémental
  5. Exemple
  6. Remarques

7. Performances informatiques : us: non traduites

  1. Latence prévue
  2. Mode Bulk vs Atomic
  3. Impact du nombre de fonctionnalités
  4. Impact de la représentation des données d'entrée
  5. Impact de la complexité du modèle
  6. Latence d'extraction de fonctionnalités
  7. Débit prévu
  8. Conseils et techniques
  9. Bibliothèque d'algèbre linéaire
  10. Compression du modèle
  11. Changer la forme du modèle
  12. Lien

Cliquez ici pour le tutoriel

© 2010 --2016, développeurs scikit-learn (licence BSD).

Recommended Posts

[Français] scikit-learn 0.18 Guide de l'utilisateur Table des matières
[Français] Table des matières du didacticiel scikit-learn 0.18
[Français] scikit-learn 0.18 Guide de l'utilisateur 2.7. Détection des nouveautés et des valeurs aberrantes
[Français] scikit-learn 0.18 Guide de l'utilisateur 4.5. Projection aléatoire
[Français] scikit-learn 0.18 Guide de l'utilisateur 1.11. Méthode Ensemble
[Français] scikit-learn 0.18 Guide de l'utilisateur 1.15. Régression isotonique
[Français] scikit-learn 0.18 Guide de l'utilisateur 4.2 Extraction de fonctionnalités
[Français] scikit-learn 0.18 Guide de l'utilisateur 1.16. Étalonnage des probabilités
[Français] scikit-learn 0.18 Guide de l'utilisateur 1.13 Sélection des fonctionnalités
[Français] scikit-learn 0.18 Guide de l'utilisateur 3.4. Persistance du modèle
[Français] scikit-learn 0.18 Guide de l'utilisateur 2.8. Estimation de la densité
[Français] scikit-learn 0.18 Guide de l'utilisateur 4.3. Prétraitement des données
[Français] scikit-learn 0.18 Guide de l'utilisateur 3.1. Validation croisée: évaluer les performances de l'estimateur
[Français] scikit-learn 0.18 Guide de l'utilisateur 4.4. Réduction de dimension non supervisée
[Français] scikit-learn 0.18 Guide de l'utilisateur 1.4. Support Vector Machine
[Français] scikit-learn 0.18 Guide de l'utilisateur 3.3. Évaluation du modèle: quantifier la qualité de la prédiction
[Français] scikit-learn 0.18 Guide de l'utilisateur 4.1. Union des pipelines et des fonctionnalités: combinaison d'estimateurs
[Français] scikit-learn 0.18 Guide de l'utilisateur 1.12. Algorithme multi-classes et algorithme multi-étiquettes
[Français] scikit-learn 0.18 Guide de l'utilisateur 4.8. Convertir la cible de prédiction (y)
[Linux] [Paramètres initiaux] Table des matières
[Python] [Table des matières Liens] Programmation Python
Premiers pas avec python3
Guide de l'utilisateur de Pandas "Formatage de tableau et tableau croisé dynamique" (Document officiel traduction japonaise)
Guide de l'utilisateur Pandas "fusionner et joindre et concaténer" (document officiel traduction japonaise)
[Français] scikit-learn 0.18 Guide de l'utilisateur 3.5. Courbe de vérification: tracez le score pour évaluer le modèle
[Français] scikit-learn 0.18 Guide de l'utilisateur 2.5. Décomposer les signaux en composants (problème de décomposition de la matrice)
Programme de reconnaissance Nogizaka (utilisant Yolov5) Table des matières
Let Code table à partir de zéro
Automatiser des tâches simples avec Python Table des matières
Traduction de scsi_mid_low_api.txt
[Français] scikit-learn 0.18 Introduction de l'apprentissage automatique par le didacticiel scikit-learn
Contenu de __name__
Créer une table avec le notebook IPython
Création de "Web Tools" BINGO avec Python (Table of Contents)
Obtention du contenu de sosreport
[Note] Contenu de la forme [0], forme [1], forme [2]
Guide de l'utilisateur Pandas "Multi-Index / Advanced Index" (Document officiel traduction japonaise)
Déployer Django + React de zéro sur GKE: Table des matières
Guide de l'utilisateur Pandas "Manipulation des données manquantes" (Document officiel de traduction en japonais)
[Linux] [Paramètres initiaux] Contenu de la configuration de l'environnement de développement