Études & Publications

recherche par icône

À propos de SYSTRAN

Depuis sa création en 1968, SYSTRAN est pionnier dans le domaine des technologies de traduction automatique. Les innovations développées par SYSTRAN sont désormais couramment utilisées par les entreprises et utilisateurs professionnels. Avec une forte orientation vers la recherche et le développement, SYSTRAN, 50 ans plus tard, est plus innovante que jamais.

SYSTRAN propose aux utilisateurs professionnels des solutions de traduction automatisée avancées et sécurisées dans divers domaines tels que la collaboration à l'international, la production de contenu multilingue, le support client, l'eDiscovery, l'analyse de Big Data, le e-commerce, etc. SYSTRAN propose une solution sur-mesure avec une architecture ouverte et évolutive qui permet une intégration transparente dans les applications tierces existantes et les infrastructures informatiques.

Modèle de transformateur amélioré pour la génération de données en texte

Modèle de transformateur amélioré pour la génération de données en texte

Les modèles neuronaux ont récemment montré des progrès significatifs dans les tâches de génération de données en texte dans lesquelles des textes descriptifs sont générés en fonction des enregistrements de base de données. Dans ce travail, nous présentons un nouveau modèle de génération de données en texte basé sur Transformer qui apprend la sélection de contenu et la génération de résumés de bout en bout. Nous introduisons deux extensions au modèle de transformateur de base : Premièrement, nous modifions... Suite

Li Gong, Josep Crego, Jean Senellart

Ouvrage : Proceedings of the 3rd Workshop on Neural Generation and Translation, pages 148-156, Association for Computational Linguistics, novembre 2019, Hong-Kong, Chine

SYSTRAN @ WAT 2019 : Actualités russo-japonaises

SYSTRAN @ WAT 2019 : Actualités russo-japonaises

Cet article décrit les soumissions de Systran{'}s à la tâche de commentaire des actualités russo-japonaises de WAT 2019. Une tâche de traduction difficile en raison des ressources extrêmement faibles disponibles et de la distance de la paire de langues. Nous avons utilisé l'architecture du Transformateur neuronal apprise sur les ressources fournies et nous avons réalisé des expériences de génération de données synthétiques qui visent à atténuer les ... Suite

Jitao Xu, TuAnh Nguyen, MinhQuang Pham, Josep Crego, Jean Senellart

Proceedings of the 6th Workshop on Asian Translation, pages 189-194, Association for Computational Linguistics, novembre 2019, Hong-Kong, Chine

SYSTRAN @ WNGT 2019 : Tâche DGT

SYSTRAN @ WNGT 2019 : Tâche DGT

Cet article décrit la participation de SYSTRAN à la tâche partagée de génération et de traduction au niveau du document (DGT) du 3ème atelier sur la génération et la traduction neuronales (WNGT 2019). Nous participons pour la première fois en utilisant un réseau Transformer enrichi d'intégrations d'entrée modifiées et en optimisant une fonction objective supplémentaire qui prend en compte la sélection de contenu. Le réseau prend en charge des éléments structurés... Suite

Li Gong, Josep Crego, Jean Senellart

Proceedings of the 3rd Workshop on Neural Generation and Translation, pages 262-267, Association for Computational Linguistics, novembre 2019, Hong-Kong, Chine

Participation de SYSTRAN à la tâche partagée WMT2018 sur le filtrage de corpus parallèle

Participation de SYSTRAN à la tâche partagée WMT2018 sur le filtrage de corpus parallèle

Cet article décrit la participation de SYSTRAN à la tâche partagée sur le filtrage de corpus parallèle lors de la troisième Conférence sur la traduction automatique (WMT 2018). Nous participons pour la première fois à l'aide d'un classificateur de similarité de phrases neuronales qui vise à prédire la parenté des paires de phrases dans un contexte multilingue. L'article décrit les principales caractéristiques... Suite

Minh Quang Pham, Josep Crego, Jean Senellart

Troisième conférence sur la traduction automatique (WMT18), 31 octobre - 1er novembre 2018, Bruxelles, Belgique

Correction des divergences de translation dans les corps parallèles pour la MT neuronale

Correction des divergences de translation dans les corps parallèles pour la MT neuronale

Les approches de traduction automatique par corpus reposent sur la disponibilité de corpus parallèles propres. De telles ressources sont rares, et en raison des processus automatiques impliqués dans leur préparation, elles sont souvent bruyantes. % peut contenir des paires de phrases qui ne sont pas aussi parallèles que prévu. Cet article décrit une méthode non supervisée de détection des divergences de traduction... Suite

Minh Quang Pham, Josep Crego, Jean Senellart, François Yvon

Conférence 2018 sur les méthodes empiriques dans le traitement du langage naturel, 31 octobre - 4 novembre 2018, Bruxelles, Belgique

Analyse de la distillation des connaissances dans la traduction automatique neuronale

Analyse de la distillation des connaissances dans la traduction automatique neuronale

La distillation des connaissances a récemment été appliquée avec succès à la traduction automatique neuronale. Il permet essentiellement de construire des réseaux rétrécis tandis que les systèmes résultants conservent la plupart de la qualité du modèle original. Malgré le fait que de nombreux auteurs parlent des avantages de la distillation de la connaissance, peu d'œuvres discutent des raisons réelles pour lesquelles elle fonctionne, surtout dans le contexte... Suite

Dakun Zhang, Josep Crego et Jean Senellart

15e atelier international sur la traduction en langue parlée, 29-30 octobre 2018, Bruges, Belgique

Description du système OpenNMT pour WNMT 2018 : 800 mots/s sur un processeur monocœur

Description du système OpenNMT pour WNMT 2018 : 800 mots/s sur un processeur monocœur

Nous présentons une description système de l'entrée OpenNMT Neural Machine Translation pour l'évaluation WNMT 2018. Dans ce travail, nous avons développé un modèle d'inférence NMT fortement optimisé ciblant un système CPU haute performance. Le système final utilise une combinaison de quatre techniques, toutes conduisant à des accélérations significatives en combinaison: (a) distillation séquentielle, (b) ... Suite

Jean Senellart, Dakun Zhang, Bo Wang, Guillaume Klein, J.P. Ramatchandirin, Josep Crego, Alexander M. Rush

Publié dans « Proceedings of the 2nd Workshop on Neural Machine Translation and Generation », pages 122-128, Association for Computational Linguistics, 20 juillet 2018, Melbourne, Australie

Architectures de réseau neuronal pour l'identification de dialecte arabe

Architectures de réseau neuronal pour l'identification de dialecte arabe

SYSTRAN participe pour la première fois cette année à la tâche partagée DSL, dans la sous-tâche Identification du dialecte arabe. Nous participons en formant plusieurs modèles de Neural Network montrant que nous pouvons obtenir des résultats compétitifs malgré la quantité limitée de données de formation disponibles pour l'apprentissage. Nous rendons compte de nos expériences et détaillons l'architecture et les paramètres du réseau... Suite

Elise Michon, Minh Quang Pham, Josep Crego, Jean Senellart

Publié dans « Proceedings of the Fifth Workshop on NLP for Similaire Languages, Varieties and Dialects », Association for Computational Linguistics, pages 128-136, 20 août 2018, Nouveau-Mexique, États-Unis

Stimuler la traduction automatique neuronale [PDF]

Stimuler la traduction automatique neuronale [PDF]

L'efficacité de la formation est l'un des principaux problèmes de la traduction automatique neuronale (NMT). Les réseaux profonds nécessitent des données très volumineuses ainsi que de nombreuses itérations de formation pour atteindre des performances de pointe. Il en résulte un coût de calcul très élevé, qui ralentit la recherche et l'industrialisation. Dans cet article, nous proposons de pallier ce problème avec plusieurs méthodes de formation... Suite

Dakun Zhang, Jungi Kim, Josep Crego, Jean Senellart

Publié dans « Proceedings of the Eighth International Joint Conference on Natural Language Processing » (Volume 2 : Short Papers), Asian Federation of Natural Language Processing, 2017, Taipei, Taiwan

OpenNMT : Boîte à outils Open-Source pour la traduction automatique neuronale [PDF]

OpenNMT : Boîte à outils Open-Source pour la traduction automatique neuronale [PDF]

Nous décrivons une boîte à outils open-source pour la traduction automatique neuronale (NMT). La boîte à outils privilégie l'efficacité, la modularité et l'extensibilité dans le but de soutenir la recherche NMT sur les architectures de modèles, les représentations de fonctionnalités et les modalités de source, tout en maintenant des performances compétitives et des exigences de formation raisonnables. La boîte à outils comprend un support de modélisation et de traduction, ainsi qu'une documentation pédagogique détaillée sur... Suite

Guillaume Klein, Yoon Kim, Yuntian Deng, Jean Senellart, Alexander Rush

Publié dans « Proceedings of ACL 2017, System Demonstrations », pages 67-72, Association for Computational Linguistics, 2017, Vancouver, Canada