Documentos y publicaciones
Acerca de Systran
Con más de 50 años de experiencia en tecnologías de traducción, SYSTRAN ha sido pionera en las mayores innovaciones en el campo, incluyendo los primeros portales de traducción basados en la web y los primeros motores de traducción neuronal que combinan inteligencia artificial y redes neuronales para empresas y organizaciones públicas.
SYSTRAN ofrece a los usuarios empresariales soluciones de traducción automática avanzadas y seguras en diversas áreas como: colaboración global, producción de contenido multilingüe, atención al cliente, investigación electrónica, análisis de Big Data, comercio electrónico, etc. SYSTRAN ofrece una solución a medida con una arquitectura abierta y escalable que permite una integración perfecta en las aplicaciones de terceros e infraestructuras informáticas existentes.
Rosetta-LSF: un corpus alineado de francés y lengua de signos para la traducción de texto a signo
Rosetta-LSF: un corpus alineado de francés y lengua de signos para la traducción de texto a signo
Elise Bertin-Lemée, Annelies Braffort, Camille Challant, Claire Danet, Boris Dauriac, Michael Filhol, Emmanuella Martinod, Jérémie Segouat.
13.ª Conferencia sobre Recursos Lingüísticos y Evaluación (LREC 2022), junio de 2022, Marsella, Francia.Generación conjunta de subtítulos y subtítulos con decodificación dual
Generación conjunta de subtítulos y subtítulos con decodificación dualA medida que aumenta la cantidad de contenido audiovisual, la necesidad de desarrollar soluciones automáticas de subtitulado y subtitulado para satisfacer las expectativas de una creciente audiencia internacional parece ser la única forma viable de aumentar el rendimiento y reducir los costos de posproducción relacionados. Los subtítulos automáticos a menudo deben estar estrechamente entrelazados para lograr un nivel adecuado... Continuación
Actas de la XIX Conferencia Internacional sobre Traducción de Lenguas Habladas (IWSLT 2022), mayo de 2022, Dublín, Irlanda
SYSTRAN @ WMT 2021: Tarea de Terminología
SYSTRAN @ WMT 2021: Tarea de TerminologíaEste artículo describe las presentaciones de SYSTRAN a la tarea compartida de terminología WMT 2021. Participamos en la dirección de traducción del inglés al francés con una red de traducción automática neuronal Transformer estándar que mejoramos con la capacidad de incluir dinámicamente restricciones de terminología, una práctica industrial muy común. Se evalúan dos métodos de inserción terminológica de última generación basados en (i) el uso … Continuación
MinhQuang Pham, Antoine Senellart, Dan Berrebbi, Josep Crego y Jean Senellart
Actas de la Sexta Conferencia sobre Traducción Automática (WMT), en línea, del 10 al 11 de noviembre de 2021Revisar la traducción automática multidominio
Revisar la traducción automática multidominioCuando se construyen sistemas de traducción automática, a menudo se necesita aprovechar al máximo los conjuntos heterogéneos de datos paralelos en la capacitación y manejar de manera robusta las entradas de dominios inesperados en las pruebas. Este escenario multidominio ha atraído mucho trabajo reciente que cae bajo el paraguas general del aprendizaje por transferencia. En este estudio, revisitamos … Continuación
MinhQuang Pham, Josep Maria Crego, François Yvon
Transacciones de la Asociación de Lingüística Computacional 9: 17–35, 1 de febrero de 2021Integración de la terminología de dominio en la traducción automática neuronal
Integración de la terminología de dominio en la traducción automática neuronalEste artículo amplía el trabajo existente sobre la integración terminológica en la traducción automática neuronal, una práctica industrial común para adaptar dinámicamente la traducción a un dominio específico. Nuestro método, basado en el uso de marcadores de posición complementados con anotación morfosintáctica, aprovecha de manera eficiente la capacidad de la red neuronal para lidiar con el conocimiento simbólico para superar la generalización de la superficie... Continuación
Elise Michon, Josep Maria Crego, Jean Senellart
Actas de la 28.ª Conferencia Internacional sobre Lingüística Computacional, diciembre de 2020Un estudio de adaptadores residuales para la traducción automática neuronal multidominio
Un estudio de adaptadores residuales para la traducción automática neuronal multidominioLa adaptación del dominio es un problema antiguo e inquietante para los sistemas de traducción automática. El enfoque más común y exitoso para la adaptación supervisada es ajustar un sistema de referencia con datos paralelos en el dominio. Sin embargo, el ajuste fino estándar modifica todos los parámetros de red, lo que hace que este enfoque sea computacionalmente costoso y propenso a sobreajustes. Un enfoque reciente y ligero, en cambio, aumenta … Continuación
MinhQuang Pham, Josep Maria Crego, François Yvon, Jean Senellart
Actas de la Quinta Conferencia sobre Traducción Automática, noviembre de 2020Traducción de máquina neuronal de cebado
Traducción de máquina neuronal de cebadoEl cebado es un fenómeno psicológico bien conocido y estudiado basado en la presentación previa de un estímulo (señal) para influir en el procesamiento de una respuesta. En este trabajo, proponemos un marco para imitar el proceso de cebado en el contexto de la traducción automática neuronal (NMT). Evaluamos el efecto del uso de traducciones similares como … Continuación
MinhQuang Pham, Jitao Xu, Josep Maria Crego, François Yvon, Jean Senellart
Actas de la Quinta Conferencia sobre Traducción Automática, noviembre de 2020Traducción automática neuronal eficiente y de alta calidad con OpenNMT
Traducción automática neuronal eficiente y de alta calidad con OpenNMTEste artículo describe las presentaciones de OpenNMT a la tarea compartida de eficiencia WNGT 2020. Exploramos la formación y la aceleración de modelos de transformadores con varios tamaños que se entrenan en una configuración maestro-estudiante. También presentamos un motor de inferencia C++ personalizado y optimizado que permite una decodificación rápida de CPU y GPU con pocas dependencias. Combinando optimizaciones adicionales… Continuación
Guillaume Klein, Dakun Zhang, Clément Chouteau, Josep Crego, Jean Senellart
Actas del Cuarto Taller sobre Generación Neuronal y Traducción, páginas 211--217, Asociación de Lingüística Computacional, julio de 2020Impulsar la traducción automática neuronal con traducciones similares
Impulsar la traducción automática neuronal con traducciones similaresEsta presentación demuestra los métodos de aumento de datos para la traducción automática neuronal para hacer uso de traducciones similares, de una manera comparable un traductor humano emplea coincidencias difusas. Mostramos cómo simplemente alimentamos el modelo neuronal con información tanto del lado de la fuente como del objetivo de los partidos difusos, y también extendemos la similitud para incluir … Continuación
Jitao Xu, Josep Crego, Jean Senellart
Actas de la Sexta Conferencia sobre Traducción Automática (WMT), en línea, del 10 al 11 de noviembre de 2021Incrustaciones de palabras genéricas y especializadas para traducción automática multidominio
Incrustaciones de palabras genéricas y especializadas para traducción automática multidominioLa traducción automática supervisada funciona bien cuando los datos del tren y de la prueba se muestrean de la misma distribución. Cuando este no es el caso, las técnicas de adaptación ayudan a garantizar que el conocimiento aprendido de los textos fuera de dominio se generalice a oraciones en dominio. Estudiamos aquí un entorno relacionado, la adaptación multidominio, donde el número de dominios es potencialmente grande y … Continuación
Minh Quang Pham, Josep Crego, François Yvon, Jean Senellart
Libro: "International Workshop on Spoken Language Translation", "Proceedings of the 16th International Workshop on Spoken Language Translation (IWSLT)", noviembre de 2019, Hong-Kong, China