論文の概要: A Case Study on Context Encoding in Multi-Encoder based Document-Level
Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2308.06063v1
- Date: Fri, 11 Aug 2023 10:35:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 14:26:07.074980
- Title: A Case Study on Context Encoding in Multi-Encoder based Document-Level
Neural Machine Translation
- Title(参考訳): マルチエンコーダに基づく文書レベルニューラルマシン翻訳におけるコンテキストエンコーディングの事例研究
- Authors: Ramakrishna Appicharla, Baban Gain, Santanu Pal and Asif Ekbal
- Abstract要約: 本研究では,ContraProテストセットのモデル評価を行い,異なる文脈が代名詞翻訳精度に与える影響について検討した。
分析の結果,文脈エンコーダは談話レベルの情報を学ぶのに十分な情報を提供することがわかった。
- 参考スコア(独自算出の注目度): 20.120962279327493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have shown that the multi-encoder models are agnostic to the
choice of context, and the context encoder generates noise which helps improve
the models in terms of BLEU score. In this paper, we further explore this idea
by evaluating with context-aware pronoun translation test set by training
multi-encoder models trained on three different context settings viz, previous
two sentences, random two sentences, and a mix of both as context.
Specifically, we evaluate the models on the ContraPro test set to study how
different contexts affect pronoun translation accuracy. The results show that
the model can perform well on the ContraPro test set even when the context is
random. We also analyze the source representations to study whether the context
encoder generates noise. Our analysis shows that the context encoder provides
sufficient information to learn discourse-level information. Additionally, we
observe that mixing the selected context (the previous two sentences in this
case) and the random context is generally better than the other settings.
- Abstract(参考訳): 近年の研究では、マルチエンコーダモデルは文脈選択に非依存であることが示されており、コンテキストエンコーダはBLEUスコアの観点からモデルを改善するのに役立つノイズを生成する。
本稿では, 3つの異なる文脈設定viz, 前2文, ランダム2文, 両方を混合したマルチエンコーダモデルを訓練することにより, 文脈認識型代名詞翻訳テストにより, この概念をさらに検討する。
具体的には, コントラプロテストセットのモデルを評価し, 異なる文脈が代名詞の翻訳精度にどのように影響するかを検討した。
その結果、コンテキストがランダムであっても、モデルがContraProテストセット上でうまく機能できることが判明した。
また、ソース表現を分析し、コンテキストエンコーダがノイズを生成するかどうかを調べる。
分析の結果,文脈エンコーダは談話レベルの情報を学ぶのに十分な情報を提供することがわかった。
さらに,選択した文脈(この場合,前の2つの文)とランダムな文脈との混合は,一般に他の設定よりも優れていることを観察する。
関連論文リスト
- A Case Study on Context-Aware Neural Machine Translation with Multi-Task Learning [49.62044186504516]
文書レベルのニューラルネットワーク翻訳(DocNMT)では、コンテクストやソース文のエンコーディングにおいてマルチエンコーダアプローチが一般的である。
近年の研究では、コンテキストエンコーダがノイズを発生させ、コンテキストの選択に頑健なモデルを実現することが示されている。
本稿では、マルチタスク学習(MTL)を通してコンテキストエンコーディングを明示的にモデル化することで、コンテキスト選択に敏感なモデルを実現することにより、この観察をさらに検討する。
論文 参考訳(メタデータ) (2024-07-03T12:50:49Z) - Sequence Shortening for Context-Aware Machine Translation [5.803309695504831]
マルチエンコーダアーキテクチャの特殊な場合において,コントラストデータセットの精度が向上することを示す。
遅延グループと遅延選択という2つの新しい手法を導入し、ネットワークはトークンをグループ化するか、コンテキストとしてキャッシュされるトークンを選択する。
論文 参考訳(メタデータ) (2024-02-02T13:55:37Z) - On Search Strategies for Document-Level Neural Machine Translation [51.359400776242786]
文書レベルのニューラルネットワーク変換(NMT)モデルは、ドキュメント全体にわたってより一貫性のある出力を生成する。
そこで本研究では,デコードにおける文脈認識翻訳モデルをどのように活用するか,という質問に答えることを目的としている。
論文 参考訳(メタデータ) (2023-06-08T11:30:43Z) - HanoiT: Enhancing Context-aware Translation via Selective Context [95.93730812799798]
コンテキスト対応ニューラルネットワーク翻訳は、文書レベルのコンテキストを使用して翻訳品質を改善することを目的としている。
無関係または自明な単語は、いくつかのノイズをもたらし、モデルが現在の文と補助的な文脈の関係を学ぶのを邪魔する可能性がある。
そこで本稿では,階層的選択機構を備えたエンド・ツー・エンドのエンコーダ・デコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-17T12:07:13Z) - SMDT: Selective Memory-Augmented Neural Document Translation [53.4627288890316]
本稿では,文脈の広い仮説空間を含む文書を扱うために,選択的メモリ拡張型ニューラル文書翻訳モデルを提案する。
トレーニングコーパスから類似のバイリンガル文ペアを抽出し,グローバルな文脈を拡大する。
ローカルなコンテキストと多様なグローバルなコンテキストをキャプチャする選択的なメカニズムで、2ストリームのアテンションモデルを拡張する。
論文 参考訳(メタデータ) (2022-01-05T14:23:30Z) - Contrastive Learning for Context-aware Neural Machine TranslationUsing
Coreference Information [14.671424999873812]
ソース文と文脈文のコア参照に基づく新しいデータ拡張とコントラスト学習方式であるCorefCLを提案する。
コンテキスト文で検出されたコア参照の言及を自動的に破損させることで、CorefCLはコア参照の不整合に敏感なモデルをトレーニングすることができる。
実験では,英語・ドイツ語・韓国語タスクの比較モデルのBLEUを一貫して改善した。
論文 参考訳(メタデータ) (2021-09-13T05:18:47Z) - Measuring and Increasing Context Usage in Context-Aware Machine
Translation [64.5726087590283]
機械翻訳モデルによるコンテキストの使用を定量的にするために、新しいメトリクス、条件付き相互情報を導入します。
次に,コンテキスト認識モデルによってコンテキストの使用量を増やすために,コンテキスト認識ワードドロップアウトという,新しい簡易なトレーニング手法を導入する。
論文 参考訳(メタデータ) (2021-05-07T19:55:35Z) - Divide and Rule: Training Context-Aware Multi-Encoder Translation Models
with Little Resources [20.057692375546356]
マルチエンコーダモデルは、文書レベルのコンテキスト情報を現在の文と共にエンコードすることで、翻訳品質の向上を目指しています。
これらのパラメータのトレーニングは、コンテキストのトレーニング信号がスパースしているため、大量のデータを必要とする。
本稿では,並列文集合の訓練信号を豊かにするための,分割文対に基づく効率的な代替手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T15:15:32Z) - Exemplar-Controllable Paraphrasing and Translation using Bitext [57.92051459102902]
私たちは、バイリンガルテキスト(bitext)からのみ学ぶことができるように、以前の作業からモデルを適用する。
提案した1つのモデルでは、両言語で制御されたパラフレーズ生成と、両言語で制御された機械翻訳の4つのタスクを実行することができる。
論文 参考訳(メタデータ) (2020-10-12T17:02:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。