Recipe 17
La régression linéaire est A* x =b...
Ici, x n'indique pas la valeur d'entrée comme le précédent x_vals: corn: La valeur d'entrée est A et x est la pente de la ligne droite et de la section y.
※2 [Traduction]
...Première rangée de la matrice de planification A (toutes les 1)...
Tous les 1 sont dans la première rangée, non? : spaghetti:
5.Sortez le coefficient () de la solution...
...
print('y'_intercept: ' + str(y_intercept))
Il y en a plusieurs "'" (mal imprimés?): Cookie:
Recipe 18
Décompose la matrice A et effectue des opérations matricielles sur la matrice décomposée
...
Ici, les équations simultanées A* x =b à L* L' * x =Résolvons-le comme b.
Premier L* y =Résoudre b, puis L' * x =La résolution de y donne la matrice de coefficients x
Je voulais que vous écriviez "put y = L '* x" au début: oden: À ce stade, je pensais que A serait décomposé en choleskey, mais dans le code du texte, A.T * A est décomposé en choleskey (.T signifie translocation). Ou plutôt, la décomposition de Choleski est pour la matrice d'Elmeet, donc A ne peut pas être la décomposition de Choleski (probablement).
En d'autres termes, ce que nous résolvons ici est l'équation obtenue en multipliant les équations simultanées ci-dessus par A.T à partir de la gauche à l'avance.
Ici, les équations simultanées A.T * A * x = A.T *b à L* L' * x = A.T *Résolvons-le comme b.
Premier L* y = A.T *Résoudre b, puis L' * x =La résolution de y donne la matrice de coefficients x
Ça me fait du bien (pour moi)
2.Ensuite, la décomposition choleskey de la matrice carrée est effectuée.
...
# L * y = t(A) *Résoudre b
tA_b = tf.matmul(tf.transpose(A_tensor), b)
Pourquoi utiliser b au lieu de b_tensor ici? : crevette frite: J'ai pensé, mais c'était correct d'utiliser b_tensor à la place
Recipe 19
Plus précisément, x_vals est la largeur des pétales, y_les vals sont la longueur des pétales...
Pour être correct, x est la largeur des pétales et y est la longueur de la pièce (mal plantée?): Cerises: En outre, il y avait des fautes d'orthographe de pétale dans le code
plt.plot(loss_vec, 'k-')
Il y a peu d'arguments, non? J'ai pensé, mais il n'y avait pas de problème: des bonbons: Le contenu de loss_vec est y et l'indice est x
Recipe 20
Dans la figure 3-5, il semble que la forme change un peu avec les nombres aléatoires
Aussi plt.ylabel était bizarre
Recipe 21
Je vois, il y a une erreur dans x, alors quand faites-vous une régression deming: anniversaire: Cependant, le nombre de formations est important et l'apprentissage se produit souvent. Celui qui a fonctionné et celui qui semble avoir un accident
opt (== optimizer) de my_opt: fonction d'optimisation tf.subtract soustract: soustraction indices: pluriel de index numérateur demming_numerator: molécule dénominateur: dénominateur de demming_denominator
Recommended Posts