Papiere und Veröffentlichungen

Symbolsuche

Über Systran

SYSTRAN verfügt über mehr als 50 Jahre Erfahrung in Übersetzungstechnologien und leistet Pionierarbeit bei den größten Innovationen in diesem Bereich. Dazu gehören die ersten webbasierten Übersetzungsportale und die ersten neuronalen Übersetzungsmodule, die künstliche Intelligenz und neuronale Netzwerke für Unternehmen und öffentliche Organisationen kombinieren.

SYSTRAN stellt Geschäftskunden hoch entwickelte und sichere automatisierte Übersetzungslösungen in verschiedenen Bereichen zur Verfügung, wie z. B. globale Zusammenarbeit, Erstellung mehrsprachiger Inhalte, Kundensupport, elektronische Ermittlungen, Big Data-Analyse, E-Commerce, etc. SYSTRAN bietet eine maßgeschneiderte Lösung mit einer offenen und skalierbaren Architektur, die eine nahtlose Integration in bestehende Anwendungen und IT-Infrastrukturen von Drittanbietern ermöglicht.

Verbessertes Transformatormodell für die Generierung von Daten in Text

Verbessertes Transformatormodell für die Generierung von Daten in Text

Neuronale Modelle haben in letzter Zeit einen signifikanten Fortschritt bei der Generierung von Daten-zu-Text-Aufgaben gezeigt, bei denen beschreibende Texte unter der Bedingung erzeugt werden, dass sie auf Datenbankdatensätzen basieren. In dieser Arbeit präsentieren wir ein neues transformatorbasiertes Daten-zu-Text-Generierungsmodell, das Content-Auswahl und Zusammenfassung-Generierung in einer End-to-End-Weise lernt. Wir führen zwei Erweiterungen des Baseline-Transformatormodells ein: Erstens ändern wir ... Fortsetzung

Li Gong, Josep Crego, Jean Senellart

Buch: Proceedings of the 3rd Workshop on Neural Generation and Translation, Seiten 148-156, Association for Computational Linguistics, November 2019, Hongkong, China

SYSTRAN @ WAT 2019: Russisch-Japanische Nachrichten Kommentar Aufgabe

SYSTRAN @ WAT 2019: Russisch-Japanische Nachrichten Kommentar Aufgabe

In diesem Artikel werden die Beiträge von Systran{‘}zur WAT 2019 Russisch-Japanische Nachrichten-Kommentar-Aufgabe beschrieben. Eine anspruchsvolle Übersetzungsaufgabe aufgrund der extrem geringen verfügbaren Ressourcen und der Entfernung der Sprachkombination. Wir haben die neuronale Transformatorarchitektur verwendet, die über die bereitgestellten Ressourcen gelernt wurde, und wir haben Experimente zur Erzeugung synthetischer Daten durchgeführt, die darauf abzielen, die... Fortsetzung

Jitao Xu, TuAnh Nguyen, MinhQuang Pham, Josep Crego, Jean Senellart

Proceedings of the 6th Workshop on Asian Translation, Seiten 189-194, Association for Computational Linguistics, November 2019, Hongkong, China

SYSTRAN @ WNGT 2019: DGT-Aufgabe

SYSTRAN @ WNGT 2019: DGT-Aufgabe

In diesem Beitrag wird die Teilnahme von SYSTRAN an der gemeinsamen Aufgabe der Generierung und Übersetzung auf Dokumentebene (DGT) des 3. Workshops zur neuronalen Generierung und Übersetzung (WNGT 2019) beschrieben. Wir beteiligen uns zum ersten Mal mit einem Transformator-Netzwerk, das mit modifizierten Input-Einbettungen erweitert wurde und eine zusätzliche objektive Funktion optimiert, die die Content-Auswahl berücksichtigt. Das Netzwerk nimmt strukturierte ... Fortsetzung

Li Gong, Josep Crego, Jean Senellart

Proceedings of the 3rd Workshop on Neural Generation and Translation, Seiten 262-267, Association for Computational Linguistics, November 2019, Hongkong, China

SYSTRAN Teilnahme an der WMT2018 Shared Task auf Parallel Corpus Filtering

SYSTRAN Teilnahme an der WMT2018 Shared Task auf Parallel Corpus Filtering

Dieses Paper beschreibt die Teilnahme von SYSTRAN an der gemeinsamen Aufgabe zur parallelen Korpusfilterung auf der Dritten Konferenz für maschinelle Übersetzung (WMT 2018). Wir nehmen zum ersten Mal an einem neuronalen Satzähnlichkeitsklassifikator teil, der darauf abzielt, die Verwandtschaft von Satzpaaren in einem mehrsprachigen Kontext vorherzusagen. Das Papier beschreibt die wichtigsten Merkmale ... Fortsetzung

Minh Quang Pham, Josep Crego, Jean Senellart

Dritte Konferenz über maschinelle Übersetzung (WMT18), 31. Oktober - 1. November 2018, Brüssel, Belgien

Korrektur von Übersetzungsdivergenzen in Parallelkorpora für neuronale MT

Korrektur von Übersetzungsdivergenzen in Parallelkorpora für neuronale MT

Korpusbasierte Ansätze zur maschinellen Übersetzung beruhen auf der Verfügbarkeit sauberer, paralleler Korpora. Solche Ressourcen sind knapp, und aufgrund der automatischen Prozesse bei ihrer Vorbereitung sind sie oft laut. % kann Satzpaare enthalten, die nicht so parallel sind, wie man erwarten würde. Dieses Dokument beschreibt eine unbeaufsichtigte Methode zur Erkennung von Übersetzungsabweichungen... Fortsetzung

Minh Quang Pham, Josep Crego, François Yvon, Jean Senellart

Konferenz 2018 über empirische Methoden in der natürlichen Sprachverarbeitung, 31. Oktober - 4. November 2018, Brüssel, Belgien

Analyse der Wissensdestillation in der neuronalen maschinellen Übersetzung

Analyse der Wissensdestillation in der neuronalen maschinellen Übersetzung

Die Wissensdestillation wurde kürzlich erfolgreich auf die neuronale maschinelle Übersetzung angewendet. Es ermöglicht im Grunde den Aufbau von geschrumpften Netzwerken, während die resultierenden Systeme den größten Teil der Qualität des ursprünglichen Modells behalten. Trotz der Tatsache, dass viele Autoren über die Vorteile der Wissensdestillation berichten, diskutieren nur wenige Werke die tatsächlichen Gründe, warum es funktioniert, vor allem im Kontext ... Fortsetzung

Dakun Zhang, Josep Crego und Jean Senellart

15. Internationaler Workshop zur gesprochenen Übersetzung, 29.-30. Oktober 2018, Brügge, Belgien

OpenNMT Systembeschreibung für WNMT 2018: 800 Wörter/s auf einer Single-Core-CPU

OpenNMT Systembeschreibung für WNMT 2018: 800 Wörter/s auf einer Single-Core-CPU

Wir präsentieren eine Systembeschreibung des OpenNMT Neural Machine Translation Eintrags für die WNMT 2018 Evaluation. In dieser Arbeit entwickelten wir ein stark optimiertes NMT-Inferenzmodell, das auf ein leistungsstarkes CPU-System abzielt. Das endgültige System verwendet eine Kombination von vier Techniken, die alle zu signifikanten Beschleunigungen in Kombination führen: a) Sequenzdestillation, b) ... Fortsetzung

Jean Senellart, Dakun Zhang, Bo Wang, Guillaume Klein, J.P. Ramatchandirin, Josep Crego, Alexander M. Rush

Veröffentlicht in "Proceedings of the 2nd Workshop on Neural Machine Translation and Generation", Seiten 122-128, Association for Computational Linguistics, Juli 20 2018, Melbourne, Australien

Neuronale Netzwerkarchitekturen für die arabische Dialektidentifikation

Neuronale Netzwerkarchitekturen für die arabische Dialektidentifikation

SYSTRAN tritt in diesem Jahr zum ersten Mal an der gemeinsamen DSL-Aufgabe im arabischen Dialekt Identification Subtask an. Wir nehmen teil, indem wir mehrere neuronale Netzwerkmodelle trainieren, die zeigen, dass wir trotz der begrenzten Menge an Trainingsdaten, die für das Lernen zur Verfügung stehen, wettbewerbsfähige Ergebnisse erzielen können. Wir berichten über unsere Experimente und erläutern die Netzwerkarchitektur und -parameter... Fortsetzung

Elise Michon, Minh Quang Pham, Josep Crego, Jean Senellart

Veröffentlicht in "Proceedings of the Fifth Workshop on NLP for Similar Languages, Varities and Dialects", Association for Computational Linguistics, Seiten 128-136, 20. August 2018, New Mexico, USA

Förderung der neuronalen maschinellen Übersetzung [PDF]

Förderung der neuronalen maschinellen Übersetzung [PDF]

Die Trainingseffizienz ist eines der Hauptprobleme bei der neuronalen Maschinellen Übersetzung (NMT). Tiefe Netzwerke benötigen sehr große Daten sowie viele Trainingseinheiten, um eine Leistung auf dem neuesten Stand der Technik zu erreichen. Dies führt zu sehr hohen Rechenkosten, die Forschung und Industrialisierung bremsen. In diesem Papier schlagen wir vor, dieses Problem mit mehreren Trainingsmethoden zu lindern ... Fortsetzung

Dakun Zhang, Jungi Kim, Josep Crego, Jean Senellart

Veröffentlicht in "Proceedings of the Eighth International Joint Conference on Natural Language Processing" (Band 2: Short Papers), Asian Federation of Natural Language Processing, 2017, Taipeh, Taiwan

OpenNMT: Open-Source-Toolkit für neuronale maschinelle Übersetzung [PDF]

OpenNMT: Open-Source-Toolkit für neuronale maschinelle Übersetzung [PDF]

Wir beschreiben ein Open-Source-Toolkit für neuronale maschinelle Übersetzung (NMT). Das Toolkit priorisiert Effizienz, Modularität und Erweiterbarkeit mit dem Ziel, die NMT-Forschung in Bezug auf Modellarchitekturen, Featuredarstellungen und Quellmodalitäten zu unterstützen und gleichzeitig eine wettbewerbsfähige Leistung und angemessene Schulungsanforderungen aufrechtzuerhalten. Das Toolkit umfasst Modellierungs- und Übersetzungsunterstützung sowie detaillierte pädagogische Dokumentation über ... Fortsetzung

Guillaume Klein, Yoon Kim, Yuntian Deng, Jean Senellart, Alexander Rush

Veröffentlicht in "Proceedings of ACL 2017, System Demonstrations", Seiten 67-72, Association for Computational Linguistics, 2017, Vancouver, Kanada