論文の概要: Encoding Sentence Position in Context-Aware Neural Machine Translation
with Concatenation
- arxiv url: http://arxiv.org/abs/2302.06459v1
- Date: Mon, 13 Feb 2023 15:39:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 15:03:36.351518
- Title: Encoding Sentence Position in Context-Aware Neural Machine Translation
with Concatenation
- Title(参考訳): 結合を伴う文脈認識ニューラルマシン翻訳における文位置の符号化
- Authors: Lorenzo Lupo, Marco Dinarelli, Laurent Besacier
- Abstract要約: 連続文の連結処理を標準翻訳手法で行うことにより、文脈対応翻訳を実現することができる。
本稿では,このタスクにセグメント埋め込みを導入するという直感的な考え方を考察し,コンカニネーションシーケンスにおける各文の位置をトランスフォーマーが識別するのを支援する。
- 参考スコア(独自算出の注目度): 25.9276959748365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Context-aware translation can be achieved by processing a concatenation of
consecutive sentences with the standard translation approach. This paper
investigates the intuitive idea of adopting segment embeddings for this task to
help the Transformer discern the position of each sentence in the concatenation
sequence. We compare various segment embeddings and propose novel methods to
encode sentence position into token representations, showing that they do not
benefit the vanilla concatenation approach except in a specific setting.
- Abstract(参考訳): 文脈対応翻訳は、連続文の結合を標準翻訳アプローチで処理することで実現できる。
本稿では,このタスクにセグメント埋め込みを導入するという直感的な考え方を考察し,コンカニネーションシーケンスにおける各文の位置をトランスフォーマーが識別するのを支援する。
様々なセグメント埋め込みを比較し,文位置をトークン表現にエンコードする新しい手法を提案する。
関連論文リスト
- Shiftable Context: Addressing Training-Inference Context Mismatch in
Simultaneous Speech Translation [0.17188280334580192]
セグメントベース処理を用いたトランスフォーマーモデルは、同時音声翻訳に有効なアーキテクチャである。
トレーニングと推論を通じて一貫したセグメントとコンテキストサイズを確実に維持するために、シフト可能なコンテキストを提案する。
論文 参考訳(メタデータ) (2023-07-03T22:11:51Z) - Dual-Alignment Pre-training for Cross-lingual Sentence Embedding [79.98111074307657]
本稿では,言語間文埋め込みのためのDAP(Dual-alignment pre-training)フレームワークを提案する。
そこで本研究では,一方の文脈化トークン表現を用いて翻訳相手を再構成する,新しい表現翻訳学習(RTL)タスクを提案する。
我々の手法は文の埋め込みを大幅に改善できる。
論文 参考訳(メタデータ) (2023-05-16T03:53:30Z) - Focused Concatenation for Context-Aware Neural Machine Translation [25.9276959748365]
文脈対応ニューラルマシン翻訳への直接的なアプローチは、標準的なエンコーダ・デコーダアーキテクチャに連続した文のウィンドウを供給することである。
そこで本研究では,現行の文の翻訳に焦点をあてる改良型連結手法を提案する。
論文 参考訳(メタデータ) (2022-10-24T16:41:22Z) - Principled Paraphrase Generation with Parallel Corpora [52.78059089341062]
ラウンドトリップ機械翻訳によって引き起こされる暗黙の類似性関数を形式化する。
一つのあいまいな翻訳を共有する非パラフレーズ対に感受性があることが示される。
この問題を緩和する別の類似度指標を設計する。
論文 参考訳(メタデータ) (2022-05-24T17:22:42Z) - Multilingual Extraction and Categorization of Lexical Collocations with
Graph-aware Transformers [86.64972552583941]
我々は,グラフ対応トランスフォーマアーキテクチャにより拡張されたBERTに基づくシーケンスタグ付けモデルを提案し,コンテキストにおけるコロケーション認識の課題について評価した。
以上の結果から, モデルアーキテクチャにおける構文的依存関係を明示的に符号化することは有用であり, 英語, スペイン語, フランス語におけるコロケーションのタイプ化の差異について考察する。
論文 参考訳(メタデータ) (2022-05-23T16:47:37Z) - Dynamic Context Selection for Document-level Neural Machine Translation
via Reinforcement Learning [55.18886832219127]
文書レベルの翻訳における動的コンテキストの選択に有効な手法を提案する。
動的文脈文の選択と活用を促進するために,新しい報酬を提案する。
実験により,提案手法は異なるソース文に対して適応的な文脈文を選択することができることが示された。
論文 参考訳(メタデータ) (2020-10-09T01:05:32Z) - Contextual Text Style Transfer [73.66285813595616]
コンテキストテキストスタイル転送は、文をその周囲のコンテキストを考慮した所望のスタイルに変換することを目的としている。
本稿では,各入力文とその周辺コンテキストに対して2つの異なるエンコーダを使用するコンテキスト認識スタイル転送(CAST)モデルを提案する。
Enron-ContextとReddit-Contextという2つの新しいベンチマークが、フォーマル性と攻撃性スタイルの転送のために導入された。
論文 参考訳(メタデータ) (2020-04-30T23:01:12Z) - Explicit Sentence Compression for Neural Machine Translation [110.98786673598016]
State-of-the-the-art Transformer-based Neural Machine Translation (NMT)システムはまだ標準のエンコーダデコーダフレームワークに従っている。
バックボーン情報は 文のギストを表すもので 具体的には 焦点を絞っていません
提案手法は,NMTのソース文表現を強化するための明示的な文圧縮手法である。
論文 参考訳(メタデータ) (2019-12-27T04:14:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。