Je voudrais présenter un article de l'Université de Cambridge qui résume très bien l'évolution de la traduction automatique en 2019.
Nous avons développé notre propre plugin de traduction Chatbot pour Slack, Kiara. L'ingénieur en chef Harada travaille d'arrache-pied en tant que premier chef de chapitre des développeurs Slack au Japon. https://kiara-app.com/ (version d'essai gratuite disponible) Avec une passion pour Slack et la révolution du style de travail, nous continuerons à exciter la communauté des développeurs.
Abstract
Neural Machine Translation: A Review
(Submitted on 4 Dec 2019) The field of machine translation (MT), the automatic translation of written text from one natural language into another, has experienced a major paradigm shift in recent years. Statistical MT, which mainly relies on various count-based models and which used to dominate MT research for decades, has largely been superseded by neural machine translation (NMT), which tackles translation with a single neural network. In this work we will trace back the origins of modern NMT architectures to word and sentence embeddings and earlier examples of the encoder-decoder network family. We will conclude with a survey of recent trends in the field.
Le domaine de la traduction automatique (MT), la traduction automatique de phrases d'une langue naturelle à une autre, a subi un changement de paradigme majeur ces dernières années. La MT statistique, qui reposait principalement sur divers modèles basés sur le comptage et a dominé la recherche sur la MT pendant des décennies, a été largement remplacée par la traduction automatique neuronale (NMT), qui travaille sur les traductions dans un seul réseau de neurones. Cette tâche retrace les origines de la dernière architecture NMT à l'incorporation de mots et de phrases et des exemples précédents de la famille de réseaux de codeurs / décodeurs. Enfin, nous étudierons les tendances récentes dans ce domaine.
https://arxiv.org/abs/1912.02047
Conclusion
Neural machine translation (NMT) has become the de facto standard for large-scale machine translation in a very short period of time. This article traced back the origin of NMT to word and sentence embeddings and neural language models. We reviewed the most commonly used building blocks of NMT architectures – recurrence, convolution, and attention – and discussed popular concrete architectures such as RNNsearch, GNMT, ConvS2S, and the Transformer. We discussed the advantages and disadvantages of several important design choices that have to be made to design a good NMT system with respect to decoding, training, and segmentation. We then explored advanced topics in NMT research such as explainability and data sparsity.
NMT=Neural Machine Translation
Word Embeddings
Phrase Embeddings
Sentence Embeddings
Encoder-Decoder Networks
Attentional Encoder-Decoder Networks
Recurrent NMT
Convolutional NMT
Self attention based NMT
Search problem in NMT
Greedy and beam search
Decoding direction
Generating diverse translation
Simultaneous translation
Open vocabulary NMT
NMT model errors
Reinforcement learning
Adversarial training
Explainable NMT
Multilingual NMT
Recommended Posts