論文の概要: Bilingual Synchronization: Restoring Translational Relationships with
Editing Operations
- arxiv url: http://arxiv.org/abs/2210.13163v1
- Date: Mon, 24 Oct 2022 12:25:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 16:53:21.262610
- Title: Bilingual Synchronization: Restoring Translational Relationships with
Editing Operations
- Title(参考訳): バイリンガル同期:編集操作による翻訳関係の復元
- Authors: Jitao Xu, Josep Crego, Fran\c{c}ois Yvon
- Abstract要約: 我々は、最初のターゲットシーケンスを仮定するより一般的な設定を考え、ソースの有効な翻訳に変換する必要がある。
この結果から、一度微調整された1つの汎用的な編集ベースシステムは、これらのタスクに特化して訓練された専用システムと比較、あるいは性能に優れる可能性が示唆された。
- 参考スコア(独自算出の注目度): 2.0411082897313984
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Translation (MT) is usually viewed as a one-shot process that
generates the target language equivalent of some source text from scratch. We
consider here a more general setting which assumes an initial target sequence,
that must be transformed into a valid translation of the source, thereby
restoring parallelism between source and target. For this bilingual
synchronization task, we consider several architectures (both autoregressive
and non-autoregressive) and training regimes, and experiment with multiple
practical settings such as simulated interactive MT, translating with
Translation Memory (TM) and TM cleaning. Our results suggest that one single
generic edit-based system, once fine-tuned, can compare with, or even
outperform, dedicated systems specifically trained for these tasks.
- Abstract(参考訳): 機械翻訳(MT)は通常、スクラッチからソーステキストに相当するターゲット言語を生成するワンショットプロセスと見なされる。
ここでは、初期ターゲットシーケンスを仮定するより一般的な設定を、ソースの有効な翻訳に変換し、ソースとターゲットの並列性を復元する必要があると考える。
このバイリンガル同期タスクでは、複数のアーキテクチャ(自己回帰型と非自己回帰型の両方)とトレーニングシステムを検討し、インタラクティブMTのシミュレーション、翻訳メモリ(TM)の翻訳、TMクリーニングなど、複数の実践的な設定を試す。
以上の結果から,1つのジェネリックエディットベースシステムは,一度微調整すれば,これらのタスク用に特別に訓練された専用システムと比較したり,性能を上回ったりできることが示唆された。
関連論文リスト
- Shiftable Context: Addressing Training-Inference Context Mismatch in
Simultaneous Speech Translation [0.17188280334580192]
セグメントベース処理を用いたトランスフォーマーモデルは、同時音声翻訳に有効なアーキテクチャである。
トレーニングと推論を通じて一貫したセグメントとコンテキストサイズを確実に維持するために、シフト可能なコンテキストを提案する。
論文 参考訳(メタデータ) (2023-07-03T22:11:51Z) - Decomposed Prompting for Machine Translation Between Related Languages
using Large Language Models [55.35106713257871]
DecoMTは、単語チャンク翻訳のシーケンスに翻訳プロセスを分解する、数発のプロンプトの新しいアプローチである。
DecoMTはBLOOMモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-22T14:52:47Z) - Neural Machine Translation with Contrastive Translation Memories [71.86990102704311]
Retrieval-augmented Neural Machine Translationモデルは、多くの翻訳シナリオで成功している。
そこで本論文では,新たに検索拡張NMTを提案し,ソース文と相似なコントラスト検索された翻訳記憶をモデル化する。
訓練段階では、目標文に対する各TMの健全な特徴を学習するために、マルチTMコントラスト学習目標を導入する。
論文 参考訳(メタデータ) (2022-12-06T17:10:17Z) - Building Multilingual Machine Translation Systems That Serve Arbitrary
X-Y Translations [75.73028056136778]
任意のX-Y翻訳方向に対応するMNMTシステムを実際に構築する方法を示す。
また,本提案手法を,実用的な展開シナリオに対応するため,極めて大規模なデータ設定で検討した。
論文 参考訳(メタデータ) (2022-06-30T02:18:15Z) - Flow-Adapter Architecture for Unsupervised Machine Translation [0.3093890460224435]
教師なしNMTのためのフローアダプタアーキテクチャを提案する。
我々は正規化フローを利用して文レベルの潜在表現の分布を明示的にモデル化する。
このアーキテクチャでは、各言語の教師なしのトレーニングを独立して行うことができる。
論文 参考訳(メタデータ) (2022-04-26T11:00:32Z) - Bridging Cross-Lingual Gaps During Leveraging the Multilingual
Sequence-to-Sequence Pretraining for Text Generation [80.16548523140025]
プレトレインとファインチューンの間のギャップを埋めるために、コードスイッチングの復元タスクを追加して、バニラプレトレイン-ファインチューンパイプラインを拡張します。
提案手法は,言語間文表現距離を狭くし,簡単な計算コストで低周波語翻訳を改善する。
論文 参考訳(メタデータ) (2022-04-16T16:08:38Z) - Multilingual Machine Translation Systems from Microsoft for WMT21 Shared
Task [95.06453182273027]
本報告では、大規模多言語機械翻訳におけるWMT21共有タスクのためのMicrosoftの機械翻訳システムについて述べる。
共有タスクへのモデル提出はDeltaLMnotefooturlhttps://aka.ms/deltalmで行われました。
最終提出は自動評価基準で3トラックにランクインした。
論文 参考訳(メタデータ) (2021-11-03T09:16:17Z) - SimulEval: An Evaluation Toolkit for Simultaneous Translation [59.02724214432792]
テキストと音声の同時翻訳は、リアルタイムと低レイテンシのシナリオに焦点を当てている。
SimulEvalは、テキストと音声の同時翻訳のための、使いやすくて汎用的な評価ツールキットである。
論文 参考訳(メタデータ) (2020-07-31T17:44:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。