Documentos y publicaciones

búsqueda de iconos

Acerca de Systran

Con más de 50 años de experiencia en tecnologías de traducción, SYSTRAN ha sido pionera en las mayores innovaciones en el campo, incluyendo los primeros portales de traducción basados en la web y los primeros motores de traducción neuronal que combinan inteligencia artificial y redes neuronales para empresas y organizaciones públicas.

SYSTRAN ofrece a los usuarios empresariales soluciones de traducción automática avanzadas y seguras en diversas áreas como: colaboración global, producción de contenido multilingüe, atención al cliente, investigación electrónica, análisis de Big Data, comercio electrónico, etc. SYSTRAN ofrece una solución a medida con una arquitectura abierta y escalable que permite una integración perfecta en las aplicaciones de terceros e infraestructuras informáticas existentes.

Modelo de transformador mejorado para la generación de datos a texto

Modelo de transformador mejorado para la generación de datos a texto

Los modelos neuronales han mostrado recientemente un progreso significativo en las tareas de generación de datos a texto en las que se generan textos descriptivos condicionados a los registros de la base de datos. En este trabajo, presentamos un nuevo modelo de generación de datos a texto basado en Transformer que aprende la selección de contenido y la generación de resumen de una manera integral. Introducimos dos extensiones al modelo de transformador de línea de base: Primero, modificamos … Continuación

Li Gong, Josep Crego, Jean Senellart

Libro: Actas del 3er Taller sobre Generación Neuronal y Traducción, páginas 148--156, Asociación de Lingüística Computacional, noviembre de 2019, Hong-Kong, China

SYSTRAN @ WAT 2019: tarea de comentario de noticias ruso-japonesas

SYSTRAN @ WAT 2019: tarea de comentario de noticias ruso-japonesas

Este artículo describe los envíos de Systran{‘}a la tarea de comentarios de noticias ruso-japonesas de WAT 2019. Una tarea de traducción desafiante debido a los recursos extremadamente bajos disponibles y la distancia del par de idiomas. Hemos utilizado la arquitectura del transformador neuronal aprendida sobre los recursos proporcionados y hemos llevado a cabo experimentos de generación de datos sintéticos que tienen como objetivo … Continuación

Jitao Xu, TuAnh Nguyen, MinhQuang Pham, Josep Crego, Jean Senellart

Actas del 6º Taller sobre Traducción Asiática, páginas 189--194, Asociación de Lingüística Computacional, noviembre de 2019, Hong-Kong, China

SYSTRAN @ WNGT 2019: DGT Tarea

SYSTRAN @ WNGT 2019: DGT Tarea

Este artículo describe la participación de SYSTRAN en la Tarea Compartida de Generación y Traducción de Documentos (DGT) del 3er Taller sobre Generación y Traducción Neuronal (WNGT 2019). Participamos por primera vez utilizando una red de Transformer mejorada con incrustaciones de entrada modificadas y optimizando una función objetivo adicional que considera la selección de contenido. La red asume una estructura … Continuación

Li Gong, Josep Crego, Jean Senellart

Actas del 3er Taller sobre Generación Neuronal y Traducción, páginas 262--267, Asociación de Lingüística Computacional, noviembre de 2019, Hong-Kong, China

Participación de SYSTRAN en la tarea compartida WMT2018 sobre filtrado paralelo de corpus

Participación de SYSTRAN en la tarea compartida WMT2018 sobre filtrado paralelo de corpus

Este artículo describe la participación de SYSTRAN en la tarea compartida sobre el filtrado de corpus paralelo en la Tercera Conferencia sobre Traducción Automática (WMT 2018). Participamos por primera vez utilizando un clasificador de similitud de oraciones neuronales que tiene como objetivo predecir la relación de los pares de oraciones en un contexto multilingüe. El artículo describe las principales características … Continuación

Minh Quang Pham, Josep Crego, Jean Senellart

Tercera Conferencia sobre Traducción Automática (WMT18), 31 de octubre - 1 de noviembre de 2018, Bruselas, Bélgica

Corregir las divergencias de traducción en los corpus paralelos para Neural MT

Corregir las divergencias de traducción en los corpus paralelos para Neural MT

Los enfoques basados en corpus para la traducción automática dependen de la disponibilidad de corpus paralelos limpios. Esos recursos son escasos y, debido a los procesos automáticos que intervienen en su preparación, suelen ser ruidosos. % puede contener pares de oraciones que no son tan paralelas como uno esperaría. Este artículo describe un método no supervisado para detectar divergencias de traducción … Continuación

Minh Quang Pham, Josep Crego, François Yvon, Jean Senellart

Conferencia de 2018 sobre métodos empíricos en el procesamiento del lenguaje natural, 31 de octubre - 4 de noviembre de 2018, Bruselas, Bélgica

Análisis de la destilación del conocimiento en la traducción automática neuronal

Análisis de la destilación del conocimiento en la traducción automática neuronal

La destilación del conocimiento se ha aplicado con éxito recientemente a la traducción automática neuronal. Básicamente permite construir redes reducidas, mientras que los sistemas resultantes conservan la mayor parte de la calidad del modelo original. A pesar de que muchos autores informan sobre los beneficios de la destilación del conocimiento, pocos trabajos discuten las razones reales por las que funciona, especialmente en el contexto... Continuación

Dakun Zhang, Josep Crego y Jean Senellart

15º Taller Internacional sobre Traducción de Lenguas Habladas, 29-30 de octubre de 2018, Brujas, Bélgica

Descripción del sistema OpenNMT para WNMT 2018: 800 palabras/seg en una CPU de un solo núcleo

Descripción del sistema OpenNMT para WNMT 2018: 800 palabras/seg en una CPU de un solo núcleo

Presentamos una descripción del sistema de la entrada de OpenNMT Neural Machine Translation para la evaluación WNMT 2018. En este trabajo, desarrollamos un modelo de inferencia NMT altamente optimizado dirigido a un sistema de CPU de alto rendimiento. El sistema final utiliza una combinación de cuatro técnicas, todas ellas conducentes a una aceleración significativa en combinación: (a) destilación secuencial, (b) … Continuación

Jean Senellart, Dakun Zhang, Bo Wang, Guillaume Klein, J.P. Ramatchandirin, Josep Crego, Alexander M. Rush

Publicado en "Proceedings of the 2nd Workshop on Neural Machine Translation and Generation", páginas 122-128, Association for Computational Linguistics, 20 de julio de 2018, Melbourne, Australia

Arquitecturas de redes neuronales para la identificación del dialecto árabe

Arquitecturas de redes neuronales para la identificación del dialecto árabe

SYSTRAN compite este año por primera vez en la tarea compartida de DSL, en la subtarea de Identificación de dialecto árabe. Participamos entrenando varios modelos de Red Neuronal demostrando que podemos obtener resultados competitivos a pesar de la cantidad limitada de datos de entrenamiento disponibles para el aprendizaje. Informamos de nuestros experimentos y detallamos la arquitectura de la red y los parámetros … Continuación

Elise Michon, Minh Quang Pham, Josep Crego, Jean Senellart

Publicado en "Proceedings of the Fifth Workshop on NLP for Similar Languages, Varieties and Dialects", Association for Computational Linguistics, pages 128-–136, August 20 2018, New Mexico, USA

Boosting Neural Machine Translation [PDF]

Boosting Neural Machine Translation [PDF]

La eficiencia del entrenamiento es uno de los principales problemas para la traducción automática neuronal (NMT). Las redes profundas necesitan datos muy grandes, así como muchas iteraciones de capacitación para lograr un rendimiento de vanguardia. Esto resulta en un costo de cómputo muy alto, lo que ralentiza la investigación y la industrialización. En este trabajo, proponemos paliar este problema con varios métodos de formación… Continuación

Dakun Zhang, Jungi Kim, Josep Crego, Jean Senellart

Publicado en "Proceedings of the Eighth International Joint Conference on Natural Language Processing" (Volumen 2: Short Papers), Federación Asiática de Procesamiento de Lenguas Naturales, 2017, Taipei, Taiwán

OpenNMT: Kit de herramientas de código abierto para la traducción de máquinas neuronales [PDF]

OpenNMT: Kit de herramientas de código abierto para la traducción de máquinas neuronales [PDF]

Describimos un kit de herramientas de código abierto para la traducción automática neuronal (NMT). El kit de herramientas prioriza la eficiencia, la modularidad y la extensibilidad con el objetivo de apoyar la investigación de NMT en arquitecturas de modelos, representaciones de características y modalidades de origen, al tiempo que mantiene el rendimiento competitivo y los requisitos de capacitación razonables. El kit de herramientas consiste en apoyo de modelado y traducción, así como documentación pedagógica detallada … Continuación

Guillaume Klein, Yoon Kim, Yuntian Deng, Jean Senellart, Alexander Rush

Publicado en "Proceedings of ACL 2017, System Demonstrations", páginas 67--72, Association for Computational Linguistics, 2017, Vancouver, Canadá