論文の概要: Lexically Cohesive Neural Machine Translation with Copy Mechanism
- arxiv url: http://arxiv.org/abs/2010.05193v1
- Date: Sun, 11 Oct 2020 08:39:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 12:49:24.166396
- Title: Lexically Cohesive Neural Machine Translation with Copy Mechanism
- Title(参考訳): コピー機構を用いたレキシカル結合型ニューラルマシン翻訳
- Authors: Vipul Mishra, Chenhui Chu and Yuki Arase
- Abstract要約: 我々は、従来の出力からの単語のコピーを可能にするために、文脈認識型ニューラルネットワーク翻訳モデルにコピー機構を用いる。
談話翻訳のための評価データセットを用いて、日本語から英語への翻訳実験を行う。
- 参考スコア(独自算出の注目度): 21.43163704217968
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lexically cohesive translations preserve consistency in word choices in
document-level translation. We employ a copy mechanism into a context-aware
neural machine translation model to allow copying words from previous
translation outputs. Different from previous context-aware neural machine
translation models that handle all the discourse phenomena implicitly, our
model explicitly addresses the lexical cohesion problem by boosting the
probabilities to output words consistently. We conduct experiments on Japanese
to English translation using an evaluation dataset for discourse translation.
The results showed that the proposed model significantly improved lexical
cohesion compared to previous context-aware models.
- Abstract(参考訳): 語彙的結合翻訳は、文書レベルの翻訳において単語選択の一貫性を保つ。
先行する翻訳出力から単語をコピーできるように,文脈認識型ニューラルマシン翻訳モデルにコピー機構を導入する。
従来の文脈認識型ニューラルマシン翻訳モデルと異なり,単語を一貫して出力する確率を高めることにより,語彙結合問題に明示的に対処している。
談話翻訳のための評価データセットを用いて日本語から英語への翻訳実験を行う。
その結果,従来の文脈認識モデルに比べて語彙結合性が有意に向上した。
関連論文リスト
- Is Robustness Transferable across Languages in Multilingual Neural
Machine Translation? [45.04661608619081]
多言語ニューラルマシン翻訳における言語間のロバストネスの伝達性について検討する。
以上の結果から,一方の翻訳方向における頑健性は他の翻訳方向への変換が可能であることが示唆された。
論文 参考訳(メタデータ) (2023-10-31T04:10:31Z) - Decomposed Prompting for Machine Translation Between Related Languages
using Large Language Models [55.35106713257871]
DecoMTは、単語チャンク翻訳のシーケンスに翻訳プロセスを分解する、数発のプロンプトの新しいアプローチである。
DecoMTはBLOOMモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-22T14:52:47Z) - HanoiT: Enhancing Context-aware Translation via Selective Context [95.93730812799798]
コンテキスト対応ニューラルネットワーク翻訳は、文書レベルのコンテキストを使用して翻訳品質を改善することを目的としている。
無関係または自明な単語は、いくつかのノイズをもたらし、モデルが現在の文と補助的な文脈の関係を学ぶのを邪魔する可能性がある。
そこで本稿では,階層的選択機構を備えたエンド・ツー・エンドのエンコーダ・デコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-17T12:07:13Z) - As Little as Possible, as Much as Necessary: Detecting Over- and
Undertranslations with Contrastive Conditioning [42.46681912294797]
本稿では,ニューラルマシン翻訳における過剰な単語の検出手法を提案する。
我々は,翻訳モデルに基づく全列の確率と,対応するソースやターゲットシーケンスを考慮に入れた部分の確率を比較する。
これにより、参照翻訳がなくても、翻訳中の過剰な単語とソース内の未翻訳の単語をピンポイントで特定することができる。
論文 参考訳(メタデータ) (2022-03-03T18:59:02Z) - DEEP: DEnoising Entity Pre-training for Neural Machine Translation [123.6686940355937]
機械翻訳モデルは通常、トレーニングコーパスで稀な名前付きエンティティの翻訳を貧弱に生成することが示されている。
文中の名前付きエンティティ翻訳精度を向上させるために,大量のモノリンガルデータと知識ベースを利用するDenoising Entity Pre-training法であるDEEPを提案する。
論文 参考訳(メタデータ) (2021-11-14T17:28:09Z) - End-to-End Lexically Constrained Machine Translation for Morphologically
Rich Languages [0.0]
本研究は, 機械翻訳による単語の正しいインフレクションを許容する機構について検討する。
英語とチェコ語のペアを用いた実験により, 自動評価と手動評価の両方において, 制約付き単語の翻訳が改良されることが示唆された。
論文 参考訳(メタデータ) (2021-06-23T13:40:13Z) - Exemplar-Controllable Paraphrasing and Translation using Bitext [57.92051459102902]
私たちは、バイリンガルテキスト(bitext)からのみ学ぶことができるように、以前の作業からモデルを適用する。
提案した1つのモデルでは、両言語で制御されたパラフレーズ生成と、両言語で制御された機械翻訳の4つのタスクを実行することができる。
論文 参考訳(メタデータ) (2020-10-12T17:02:50Z) - Neural Syntactic Preordering for Controlled Paraphrase Generation [57.5316011554622]
私たちの研究は、構文変換を使用して、ソース文をソフトに"リオーダー"し、神経パラフレージングモデルをガイドします。
まず、入力文が与えられた場合、エンコーダ・デコーダモデルを用いて、実行可能な構文再構成のセットを導出する。
次に、提案した各再構成を用いて位置埋め込みのシーケンスを生成し、最終的なエンコーダ-デコーダパラフレーズモデルが特定の順序でソース語に従属することを奨励する。
論文 参考訳(メタデータ) (2020-05-05T09:02:25Z) - Translation Artifacts in Cross-lingual Transfer Learning [51.66536640084888]
機械翻訳は、既存の言語間モデルに顕著な影響を与える微妙なアーティファクトを導入することができることを示す。
自然言語の推論では、前提と仮説を独立に翻訳することで、それらの間の語彙的重複を減らすことができる。
また、XNLIでは、それぞれ4.3点と2.8点の翻訳とゼロショットのアプローチを改善している。
論文 参考訳(メタデータ) (2020-04-09T17:54:30Z) - Incorporating Bilingual Dictionaries for Low Resource Semi-Supervised
Neural Machine Translation [5.958653653305609]
我々は、単語・バイ・ワードの翻訳によって合成文を生成する、広く利用可能なバイリンガル辞書を組み込んだ。
これにより、高品質なコンテンツを維持しながら、モデルの語彙を自動的に拡張する。
論文 参考訳(メタデータ) (2020-04-05T02:14:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。