Après avoir décomposé une phrase en mots, la manière dont les mots sont traités est convertie en valeurs numériques. Par exemple, ceci = [0,2, 0,4, 0,5], est = [0,1, 0,7, 0,35]. Ce que ces caractéristiques représentent, ce sont les caractéristiques de chaque mot. Ces [0,2, 0,4, 0,5] et [0,1, 0,7, 0,35] sont appelés vecteurs de mots.
Par exemple, si le seul mot qui apparaît dans la phrase que vous souhaitez analyser cette fois est "Je suis John Cena".
I = [ 1 , 0 , 0 , 0 ]
am = [ 0 , 1 , 0 , 0 ]
John Cena = [ 0 , 0 , 1 , 0 ]
. = [ 0 , 0 , 0 , 1 ]
Il peut être converti en un vecteur one-hot comme celui-ci. Changez ce vecteur de mot avec un encodeur. En conséquence, le mot peut être changé en un montant de fonction. Le vecteur obtenu en changeant ce vecteur one-hot avec un codeur est appelé un vecteur d'incorporation.
Par exemple I = [1, 0, 0, 0] ⇒ Encodeur ⇒ $ x_1 $ = [0,3, -0,3, 0,6, 2,2]
Ce $ x_1 $ est le vecteur d'intégration
L'idée comme celle-ci est détaillée ici (je l'ai utilisée comme référence) https://ishitonton.hatenablog.com/entry/2018/11/25/200332
Un transformateur renvoie une certaine chaîne de caractères lorsqu'une chaîne de caractères est entrée. Quant au contenu, il se compose de nombreux encodeurs et décodeurs comme le montre la figure ci-dessus. La chaîne de caractères saisie entre d'abord dans l'encodeur. Le contenu de l'encodeur est indiqué ci-dessous
Cette auto-attention examine la relation entre les mots dans la chaîne d'entrée. En outre, la forte relation entre les mots examine la similitude de chaque vecteur de mot. Par conséquent, afin de vérifier la similitude, le produit interne de la matrice doit être vérifié. La transformation est ensuite transformée à l'aide d'un réseau neuronal général.
Le décodeur utilise alors l'entrée du codeur pour prédire le mot suivant.
Cette E-D-attention examine la relation entre l'entrée et la sortie.
Un transformateur rugueux ressemble à ceci. Si vous voulez bien savoir https://qiita.com/omiita/items/07e69aef6c156d23c538
J'ai presque utilisé cela comme référence! Incroyablement facile à comprendre! https://www.youtube.com/watch?v=BcNZRiO0_AE