[Conclusion] Si vous modifiez le poids, le graphique changera. ▷ Si vous augmentez la valeur de poids, le graphique de la fonction d'activation devient plus raide. ▷ Si la valeur de poids est réduite, le graphique de la fonction d'activation devient plus doux.
[Explication] J'ai considéré un exemple simple où un neurone d'entrée se propage vers l'avant. J'ai utilisé la fonction Sigmoid comme fonction d'activation.
Dans le premier calcul, la sortie y est un graphique linéaire (ligne droite). ▷ y=wx+b
Lorsque le résultat est passé à travers la fonction d'activation, il devient un graphique non linéaire (ligne squishy). ▷ y'=1/(1+(-y))
Vous pouvez voir que la forme du graphique change lorsque vous modifiez la valeur de poids.
[Conclusion] Si vous modifiez le biais, le graphique changera. ▷ Si vous augmentez la valeur de polarisation, le graphique de la fonction d'activation se déplacera parallèlement vers la droite (plus). ▷ Lorsque la valeur de polarisation est réduite, le graphique de la fonction d'activation se déplace parallèlement à la direction gauche (moins).
Vous pouvez modifier librement la forme du graphique en modifiant les valeurs de pondération et de biais (ensemble, paramètres).
L'apprentissage automatique le fait automatiquement et le rapproche du graphique idéal.
** "AI pour les allergies aux chats" ** https://t.co/4ltE8gzBVv?amp=1
Nous envoyons des informations sur l'apprentissage automatique sur YouTube. Si vous avez le temps, jetez un œil.
Recommended Posts