Dernière fois Cours d'apprentissage automatique à l'Université de Tsukuba: étudier sklearn tout en intégrant le script Python au devoir (9) https://github.com/legacyworld/sklearn-basic
S'il y a une valeur aberrante cette fois Le commentaire Youtube est d'environ 6e (1) 55 minutes 30 secondes
Le programme ajoute juste deux lignes
X = np.insert(X,0,[5,-50],axis=0)
y = np.insert(y,0,1)
Il semble que la première valeur soit remplacée dans le cours, mais en ajouter une ne semble pas beaucoup changer.
C'est le résultat de l'exécution. Même s'il y a une valeur qui diffère considérablement, si la réponse est correcte, la perte de charnière sera de 0, donc il n'y aura aucun effet.
Cela ajoute également deux lignes, mais pour une raison quelconque, les coordonnées ont changé en [5, -35]. Probablement parce que si la perte au carré est également [5, -50], l'écart sera trop grand. Voici le résultat de l'exécution
Lorsqu'il y a une valeur de déviation importante, il n'y a pas de problème avec la perte de charnière et elle est classée, mais avec une perte de carré, même si la réponse est correcte, une perte éloignée donne une grande pénalité, donc cela devient étrange.
Cours d'apprentissage automatique à l'Université de Tsukuba: étudier sklearn tout en intégrant le script Python au devoir (1) Cours d'apprentissage automatique à l'Université de Tsukuba: étudier sklearn tout en intégrant le script Python au devoir (2) Cours d'apprentissage automatique à l'Université de Tsukuba: étudier sklearn tout en intégrant le script Python au devoir (3) Cours d'apprentissage automatique à l'Université de Tsukuba: étudier sklearn tout en intégrant le script Python au devoir (4) Cours d'apprentissage automatique à l'Université de Tsukuba: étudier sklearn tout en intégrant le script Python au devoir (5) Cours d'apprentissage automatique à l'Université de Tsukuba: étudier sklearn tout en intégrant le script Python au devoir (6) Cours d'apprentissage automatique à l'Université de Tsukuba: Étudiez sklearn tout en intégrant le script Python à la tâche (7) Créez votre propre méthode de descente la plus raide Cours d'apprentissage automatique à l'Université de Tsukuba: Étudiez sklearn tout en intégrant le script Python à la tâche (8) Créez votre propre méthode de descente stochastique la plus raide https://github.com/legacyworld/sklearn-basic https://ocw.tsukuba.ac.jp/course/systeminformation/machine_learning/
Recommended Posts