論文の概要: Focused Concatenation for Context-Aware Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2210.13388v1
- Date: Mon, 24 Oct 2022 16:41:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 16:51:35.033556
- Title: Focused Concatenation for Context-Aware Neural Machine Translation
- Title(参考訳): 文脈認識型ニューラルマシン翻訳のための焦点結合
- Authors: Lorenzo Lupo, Marco Dinarelli, Laurent Besacier
- Abstract要約: 文脈対応ニューラルマシン翻訳への直接的なアプローチは、標準的なエンコーダ・デコーダアーキテクチャに連続した文のウィンドウを供給することである。
そこで本研究では,現行の文の翻訳に焦点をあてる改良型連結手法を提案する。
- 参考スコア(独自算出の注目度): 25.9276959748365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A straightforward approach to context-aware neural machine translation
consists in feeding the standard encoder-decoder architecture with a window of
consecutive sentences, formed by the current sentence and a number of sentences
from its context concatenated to it. In this work, we propose an improved
concatenation approach that encourages the model to focus on the translation of
the current sentence, discounting the loss generated by target context. We also
propose an additional improvement that strengthen the notion of sentence
boundaries and of relative sentence distance, facilitating model compliance to
the context-discounted objective. We evaluate our approach with both
average-translation quality metrics and contrastive test sets for the
translation of inter-sentential discourse phenomena, proving its superiority to
the vanilla concatenation approach and other sophisticated context-aware
systems.
- Abstract(参考訳): 文脈認識型ニューラルマシン翻訳への直接的なアプローチは、標準エンコーダ・デコーダアーキテクチャに、現在の文とそれに関連するコンテキストからの多くの文によって形成された一連の文のウィンドウを供給することである。
そこで本研究では,現在の文の翻訳に焦点を合わせ,目的とする文脈によって生じる損失を削減し,結合性を改善する手法を提案する。
また,文境界や相対文距離の概念を強化し,文脈記述対象に対するモデルコンプライアンスを容易にする改良も提案する。
提案手法は, 平均翻訳品質指標と比較テストセットの両方を用いて評価し, バニラ結合法や他の高度な文脈認識システムよりも優れていることを証明した。
関連論文リスト
- A Case Study on Context-Aware Neural Machine Translation with Multi-Task Learning [49.62044186504516]
文書レベルのニューラルネットワーク翻訳(DocNMT)では、コンテクストやソース文のエンコーディングにおいてマルチエンコーダアプローチが一般的である。
近年の研究では、コンテキストエンコーダがノイズを発生させ、コンテキストの選択に頑健なモデルを実現することが示されている。
本稿では、マルチタスク学習(MTL)を通してコンテキストエンコーディングを明示的にモデル化することで、コンテキスト選択に敏感なモデルを実現することにより、この観察をさらに検討する。
論文 参考訳(メタデータ) (2024-07-03T12:50:49Z) - Challenges in Context-Aware Neural Machine Translation [39.89082986080746]
コンテキスト対応ニューラルマシン翻訳は、会話依存を解決するために、文レベルのコンテキストを超えた情報を活用する。
十分な直感にもかかわらず、ほとんどの文脈対応翻訳モデルは、文レベルシステムよりもわずかに改善されている。
本稿では,パラパラグラフ(パラパラグラフ)翻訳という,文書レベルの翻訳のより現実的な設定を提案する。
論文 参考訳(メタデータ) (2023-05-23T07:08:18Z) - Encoding Sentence Position in Context-Aware Neural Machine Translation
with Concatenation [25.9276959748365]
コンテクスト対応翻訳は、連続した文と標準のTransformerアーキテクチャとの結合を処理することで実現できる。
本稿では,連結ウィンドウに含まれる文の位置に関する明示的な情報をモデルに提供するという直感的な考え方について検討する。
論文 参考訳(メタデータ) (2023-02-13T15:39:08Z) - HanoiT: Enhancing Context-aware Translation via Selective Context [95.93730812799798]
コンテキスト対応ニューラルネットワーク翻訳は、文書レベルのコンテキストを使用して翻訳品質を改善することを目的としている。
無関係または自明な単語は、いくつかのノイズをもたらし、モデルが現在の文と補助的な文脈の関係を学ぶのを邪魔する可能性がある。
そこで本稿では,階層的選択機構を備えたエンド・ツー・エンドのエンコーダ・デコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-17T12:07:13Z) - Improving Transformer-based Conversational ASR by Inter-Sentential
Attention Mechanism [20.782319059183173]
本稿では,会話音声認識のためのトランスフォーマーに基づくエンドツーエンドアーキテクチャにおいて,文間情報を明示的にモデル化することを提案する。
提案手法は,複数のオープンソースの対話コーパスに対して有効であり,提案手法は発話レベル変換器を用いたASRモデルから連続的に性能を向上する。
論文 参考訳(メタデータ) (2022-07-02T17:17:47Z) - Measuring and Increasing Context Usage in Context-Aware Machine
Translation [64.5726087590283]
機械翻訳モデルによるコンテキストの使用を定量的にするために、新しいメトリクス、条件付き相互情報を導入します。
次に,コンテキスト認識モデルによってコンテキストの使用量を増やすために,コンテキスト認識ワードドロップアウトという,新しい簡易なトレーニング手法を導入する。
論文 参考訳(メタデータ) (2021-05-07T19:55:35Z) - Enriching Non-Autoregressive Transformer with Syntactic and
SemanticStructures for Neural Machine Translation [54.864148836486166]
本稿では,言語の明示的な構文構造と意味構造を非自己回帰トランスフォーマーに組み込むことを提案する。
我々のモデルは、最先端の非自己回帰モデルと比較して翻訳品質を保ちながら、はるかに高速な速度を実現している。
論文 参考訳(メタデータ) (2021-01-22T04:12:17Z) - Context-aware Decoder for Neural Machine Translation using a Target-side
Document-Level Language Model [12.543106304662059]
本稿では,文書レベルの言語モデルをデコーダに組み込むことで,文レベルの翻訳モデルを文脈認識モデルに変換する手法を提案する。
我々のデコーダは文レベルのパラレルコーパスとモノリンガルコーパスのみに基づいて構築されている。
理論的観点からは、この研究の核となる部分は、文脈と現在の文間のポイントワイドな相互情報を用いた文脈情報の新しい表現である。
論文 参考訳(メタデータ) (2020-10-24T08:06:18Z) - Contextual Text Style Transfer [73.66285813595616]
コンテキストテキストスタイル転送は、文をその周囲のコンテキストを考慮した所望のスタイルに変換することを目的としている。
本稿では,各入力文とその周辺コンテキストに対して2つの異なるエンコーダを使用するコンテキスト認識スタイル転送(CAST)モデルを提案する。
Enron-ContextとReddit-Contextという2つの新しいベンチマークが、フォーマル性と攻撃性スタイルの転送のために導入された。
論文 参考訳(メタデータ) (2020-04-30T23:01:12Z) - Contextual Neural Machine Translation Improves Translation of Cataphoric
Pronouns [50.245845110446496]
本研究では,将来の文脈で訓練された文脈的NMTモデルの性能と過去の文脈で訓練された文脈とを比較し,文脈としての将来の文の効果について検討する。
提案手法は, 文脈に依存しないトランスフォーマーよりも, 将来的な文脈の活用が著しく向上することを示し, 汎用的および代名詞的自動測定を用いた実験と評価を行った。
論文 参考訳(メタデータ) (2020-04-21T10:45:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。