論文の概要: A Comparison of Approaches to Document-level Machine Translation
- arxiv url: http://arxiv.org/abs/2101.11040v1
- Date: Tue, 26 Jan 2021 19:21:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 19:56:29.639028
- Title: A Comparison of Approaches to Document-level Machine Translation
- Title(参考訳): 文書レベルの機械翻訳へのアプローチの比較
- Authors: Zhiyi Ma, Sergey Edunov, Michael Auli
- Abstract要約: 本稿では,文書レベルの現象評価スイートに対して選択したアプローチを体系的に比較する。
我々は,単言語文書レベルでのバック翻訳に基づく単純な手法が,より精巧な代替手段として機能することを見出した。
- 参考スコア(独自算出の注目度): 34.2276281264886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Document-level machine translation conditions on surrounding sentences to
produce coherent translations. There has been much recent work in this area
with the introduction of custom model architectures and decoding algorithms.
This paper presents a systematic comparison of selected approaches from the
literature on two benchmarks for which document-level phenomena evaluation
suites exist. We find that a simple method based purely on back-translating
monolingual document-level data performs as well as much more elaborate
alternatives, both in terms of document-level metrics as well as human
evaluation.
- Abstract(参考訳): コヒーレントな翻訳を生成するために、周囲の文に対する文書レベルの機械翻訳条件。
この領域では、カスタムモデルアーキテクチャとデコードアルゴリズムの導入によって、近年多くの作業が行われている。
本稿では,文書レベルの現象評価スイートが存在する2つのベンチマークについて,文献から選択したアプローチを体系的に比較する。
単言語文書レベルのデータをバック翻訳する単純な手法は、文書レベルのメトリクスと人的評価の両方の観点から、より精巧な代替手段として機能する。
関連論文リスト
- Contextual Document Embeddings [77.22328616983417]
本稿では,コンテキスト化された文書埋め込みのための2つの補完手法を提案する。
第一に、文書近傍を明示的にバッチ内コンテキスト損失に組み込む別のコントラスト学習目標である。
第二に、隣接する文書情報をエンコードされた表現に明示的にエンコードする新しいコンテキストアーキテクチャ。
論文 参考訳(メタデータ) (2024-10-03T14:33:34Z) - End-to-End Evaluation for Low-Latency Simultaneous Speech Translation [55.525125193856084]
本稿では,低遅延音声翻訳の様々な側面を現実的な条件下で実行し,評価するための第1の枠組みを提案する。
これには、オーディオのセグメンテーションと、異なるコンポーネントの実行時間が含まれる。
また、このフレームワークを用いて低遅延音声翻訳の異なるアプローチを比較する。
論文 参考訳(メタデータ) (2023-08-07T09:06:20Z) - On Search Strategies for Document-Level Neural Machine Translation [51.359400776242786]
文書レベルのニューラルネットワーク変換(NMT)モデルは、ドキュメント全体にわたってより一貫性のある出力を生成する。
そこで本研究では,デコードにおける文脈認識翻訳モデルをどのように活用するか,という質問に答えることを目的としている。
論文 参考訳(メタデータ) (2023-06-08T11:30:43Z) - HanoiT: Enhancing Context-aware Translation via Selective Context [95.93730812799798]
コンテキスト対応ニューラルネットワーク翻訳は、文書レベルのコンテキストを使用して翻訳品質を改善することを目的としている。
無関係または自明な単語は、いくつかのノイズをもたらし、モデルが現在の文と補助的な文脈の関係を学ぶのを邪魔する可能性がある。
そこで本稿では,階層的選択機構を備えたエンド・ツー・エンドのエンコーダ・デコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-17T12:07:13Z) - Discourse Cohesion Evaluation for Document-Level Neural Machine
Translation [36.96887050831173]
優れた文書レベルのニューラルマシン翻訳(NMT)モデルによって生成された翻訳は一貫性があり一貫性があることが知られている。
BLEUのような既存の文レベルの評価指標は、文書レベルでのモデルの性能をほとんど反映できない。
文書翻訳の結束度を測定するために,4つの結束度を考慮した新しいテストスイートを提案する。
論文 参考訳(メタデータ) (2022-08-19T01:56:00Z) - Document-level Neural Machine Translation with Document Embeddings [82.4684444847092]
この研究は、複数の形式の文書埋め込みの観点から、詳細な文書レベルのコンテキストを活用することに重点を置いている。
提案する文書認識NMTは,大域的および局所的な文書レベルの手がかりをソース端に導入することにより,Transformerベースラインを強化するために実装されている。
論文 参考訳(メタデータ) (2020-09-16T19:43:29Z) - Towards Making the Most of Context in Neural Machine Translation [112.9845226123306]
我々は、これまでの研究がグローバルな文脈をはっきりと利用しなかったと論じている。
本研究では,各文の局所的文脈を意図的にモデル化する文書レベルNMTフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T03:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。