論文の概要: Encoding Sentence Position in Context-Aware Neural Machine Translation
with Concatenation
- arxiv url: http://arxiv.org/abs/2302.06459v2
- Date: Tue, 4 Apr 2023 19:05:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 15:29:10.411387
- Title: Encoding Sentence Position in Context-Aware Neural Machine Translation
with Concatenation
- Title(参考訳): 結合を伴う文脈認識ニューラルマシン翻訳における文位置の符号化
- Authors: Lorenzo Lupo, Marco Dinarelli, Laurent Besacier
- Abstract要約: コンテクスト対応翻訳は、連続した文と標準のTransformerアーキテクチャとの結合を処理することで実現できる。
本稿では,連結ウィンドウに含まれる文の位置に関する明示的な情報をモデルに提供するという直感的な考え方について検討する。
- 参考スコア(独自算出の注目度): 25.9276959748365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Context-aware translation can be achieved by processing a concatenation of
consecutive sentences with the standard Transformer architecture. This paper
investigates the intuitive idea of providing the model with explicit
information about the position of the sentences contained in the concatenation
window. We compare various methods to encode sentence positions into token
representations, including novel methods. Our results show that the Transformer
benefits from certain sentence position encoding methods on English to Russian
translation if trained with a context-discounted loss (Lupo et al., 2022).
However, the same benefits are not observed in English to German. Further
empirical efforts are necessary to define the conditions under which the
proposed approach is beneficial.
- Abstract(参考訳): 文脈対応翻訳は、連続文の結合を標準トランスフォーマーアーキテクチャで処理することで実現できる。
本稿では,連結ウィンドウに含まれる文の位置に関する明示的な情報をモデルに提供するという直感的な考え方について検討する。
文の位置をトークン表現にエンコードする様々な手法について比較する。
以上の結果から,コンテクスト別損失(Lupo et al.,2022)を訓練した場合,トランスフォーマーは英語からロシア語への翻訳における特定の文章位置の符号化方法の利点が示唆された。
しかし、英語とドイツ語では同様の利点は認められていない。
提案手法が有効である条件を定義するには,さらなる実証的努力が必要である。
関連論文リスト
- Shiftable Context: Addressing Training-Inference Context Mismatch in
Simultaneous Speech Translation [0.17188280334580192]
セグメントベース処理を用いたトランスフォーマーモデルは、同時音声翻訳に有効なアーキテクチャである。
トレーニングと推論を通じて一貫したセグメントとコンテキストサイズを確実に維持するために、シフト可能なコンテキストを提案する。
論文 参考訳(メタデータ) (2023-07-03T22:11:51Z) - Dual-Alignment Pre-training for Cross-lingual Sentence Embedding [79.98111074307657]
本稿では,言語間文埋め込みのためのDAP(Dual-alignment pre-training)フレームワークを提案する。
そこで本研究では,一方の文脈化トークン表現を用いて翻訳相手を再構成する,新しい表現翻訳学習(RTL)タスクを提案する。
我々の手法は文の埋め込みを大幅に改善できる。
論文 参考訳(メタデータ) (2023-05-16T03:53:30Z) - Focused Concatenation for Context-Aware Neural Machine Translation [25.9276959748365]
文脈対応ニューラルマシン翻訳への直接的なアプローチは、標準的なエンコーダ・デコーダアーキテクチャに連続した文のウィンドウを供給することである。
そこで本研究では,現行の文の翻訳に焦点をあてる改良型連結手法を提案する。
論文 参考訳(メタデータ) (2022-10-24T16:41:22Z) - Principled Paraphrase Generation with Parallel Corpora [52.78059089341062]
ラウンドトリップ機械翻訳によって引き起こされる暗黙の類似性関数を形式化する。
一つのあいまいな翻訳を共有する非パラフレーズ対に感受性があることが示される。
この問題を緩和する別の類似度指標を設計する。
論文 参考訳(メタデータ) (2022-05-24T17:22:42Z) - Multilingual Extraction and Categorization of Lexical Collocations with
Graph-aware Transformers [86.64972552583941]
我々は,グラフ対応トランスフォーマアーキテクチャにより拡張されたBERTに基づくシーケンスタグ付けモデルを提案し,コンテキストにおけるコロケーション認識の課題について評価した。
以上の結果から, モデルアーキテクチャにおける構文的依存関係を明示的に符号化することは有用であり, 英語, スペイン語, フランス語におけるコロケーションのタイプ化の差異について考察する。
論文 参考訳(メタデータ) (2022-05-23T16:47:37Z) - Dynamic Context Selection for Document-level Neural Machine Translation
via Reinforcement Learning [55.18886832219127]
文書レベルの翻訳における動的コンテキストの選択に有効な手法を提案する。
動的文脈文の選択と活用を促進するために,新しい報酬を提案する。
実験により,提案手法は異なるソース文に対して適応的な文脈文を選択することができることが示された。
論文 参考訳(メタデータ) (2020-10-09T01:05:32Z) - Contextual Text Style Transfer [73.66285813595616]
コンテキストテキストスタイル転送は、文をその周囲のコンテキストを考慮した所望のスタイルに変換することを目的としている。
本稿では,各入力文とその周辺コンテキストに対して2つの異なるエンコーダを使用するコンテキスト認識スタイル転送(CAST)モデルを提案する。
Enron-ContextとReddit-Contextという2つの新しいベンチマークが、フォーマル性と攻撃性スタイルの転送のために導入された。
論文 参考訳(メタデータ) (2020-04-30T23:01:12Z) - Explicit Sentence Compression for Neural Machine Translation [110.98786673598016]
State-of-the-the-art Transformer-based Neural Machine Translation (NMT)システムはまだ標準のエンコーダデコーダフレームワークに従っている。
バックボーン情報は 文のギストを表すもので 具体的には 焦点を絞っていません
提案手法は,NMTのソース文表現を強化するための明示的な文圧縮手法である。
論文 参考訳(メタデータ) (2019-12-27T04:14:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。