論文の概要: Rethinking Document-level Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2010.08961v2
- Date: Mon, 14 Mar 2022 13:28:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-10-06 04:15:12.631197
- Title: Rethinking Document-level Neural Machine Translation
- Title(参考訳): 文書レベルのニューラルマシン翻訳の再考
- Authors: Zewei Sun, Mingxuan Wang, Hao Zhou, Chengqi Zhao, Shujian Huang,
Jiajun Chen, Lei Li
- Abstract要約: 現在のモデルでは、ドキュメントレベルの翻訳に十分な能力がありますか?
適切なトレーニング技術を持つオリジナルのトランスフォーマーは,2000語の長さであっても,文書翻訳の強力な結果が得られることを観察する。
- 参考スコア(独自算出の注目度): 73.42052953710605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper does not aim at introducing a novel model for document-level
neural machine translation. Instead, we head back to the original Transformer
model and hope to answer the following question: Is the capacity of current
models strong enough for document-level translation? Interestingly, we observe
that the original Transformer with appropriate training techniques can achieve
strong results for document translation, even with a length of 2000 words. We
evaluate this model and several recent approaches on nine document-level
datasets and two sentence-level datasets across six languages. Experiments show
that document-level Transformer models outperforms sentence-level ones and many
previous methods in a comprehensive set of metrics, including BLEU, four
lexical indices, three newly proposed assistant linguistic indicators, and
human evaluation.
- Abstract(参考訳): 本稿は,文書レベルのニューラルマシン翻訳の新しいモデルの導入を意図したものではない。
代わりに、元のトランスフォーマーモデルに戻り、以下の質問に答えたいと考えている。 現在のモデルの能力はドキュメントレベルの翻訳に十分強いか?
興味深いことに、適切な訓練技術を備えた原型トランスは、2000語の長さの文書翻訳において強力な結果が得られる。
このモデルと最近の9つの文書レベルデータセットと6言語にまたがる2つの文レベルデータセットに対するいくつかのアプローチを評価した。
実験の結果,文書レベルのトランスフォーマーモデルは,BLEU,4つの語彙指標,新たに提案された3つの補助的言語指標,人的評価などの総合的な指標セットにおいて,文レベルのモデルや従来手法よりも優れていた。
関連論文リスト
- Document-Level Language Models for Machine Translation [37.106125892770315]
文書レベルのモノリンガルデータを利用した文脈対応翻訳システムを構築した。
モデル組み合わせの最近の進歩を活用することで、既存のアプローチを改善します。
ほとんどのシナリオでは、バックトランスレーションは、翻訳システムを再トレーニングするコストを犠牲にして、よりよい結果をもたらす。
論文 参考訳(メタデータ) (2023-10-18T20:10:07Z) - HanoiT: Enhancing Context-aware Translation via Selective Context [95.93730812799798]
コンテキスト対応ニューラルネットワーク翻訳は、文書レベルのコンテキストを使用して翻訳品質を改善することを目的としている。
無関係または自明な単語は、いくつかのノイズをもたらし、モデルが現在の文と補助的な文脈の関係を学ぶのを邪魔する可能性がある。
そこで本稿では,階層的選択機構を備えたエンド・ツー・エンドのエンコーダ・デコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-17T12:07:13Z) - Learn To Remember: Transformer with Recurrent Memory for Document-Level
Machine Translation [14.135048254120615]
バニラ変換器にリカレントメモリユニットを導入し、文と前のコンテキスト間の情報交換をサポートする。
我々は文書レベルの機械翻訳のための3つの一般的なデータセットの実験を行い、我々のモデルは文レベルのベースラインに対して平均0.91 s-BLEUの改善を行っている。
論文 参考訳(メタデータ) (2022-05-03T14:55:53Z) - SMDT: Selective Memory-Augmented Neural Document Translation [53.4627288890316]
本稿では,文脈の広い仮説空間を含む文書を扱うために,選択的メモリ拡張型ニューラル文書翻訳モデルを提案する。
トレーニングコーパスから類似のバイリンガル文ペアを抽出し,グローバルな文脈を拡大する。
ローカルなコンテキストと多様なグローバルなコンテキストをキャプチャする選択的なメカニズムで、2ストリームのアテンションモデルを拡張する。
論文 参考訳(メタデータ) (2022-01-05T14:23:30Z) - SPECTER: Document-level Representation Learning using Citation-informed
Transformers [51.048515757909215]
SPECTERは、Transformer言語モデルの事前学習に基づいて、科学文書の文書レベルの埋め込みを生成する。
SciDocsは、引用予測から文書分類、レコメンデーションまでの7つの文書レベルのタスクからなる新しい評価ベンチマークである。
論文 参考訳(メタデータ) (2020-04-15T16:05:51Z) - Learning Contextualized Sentence Representations for Document-Level
Neural Machine Translation [59.191079800436114]
文書レベルの機械翻訳は、文間の依存関係をソース文の翻訳に組み込む。
本稿では,ニューラルマシン翻訳(NMT)を訓練し,文のターゲット翻訳と周辺文の双方を予測することによって,文間の依存関係をモデル化するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T03:38:01Z) - Capturing document context inside sentence-level neural machine
translation models with self-training [5.129814362802968]
文書レベルのニューラルマシン翻訳は、文レベルの翻訳よりもあまり注目されず、遅れを取っている。
本稿では,並列文書レベルのコーパス上で,特殊なモデルを訓練する必要のない手法を提案する。
我々のアプローチは、モデルによる選択を強化するため、文書内の他の文で同じ選択がされる可能性が高くなる。
論文 参考訳(メタデータ) (2020-03-11T12:36:17Z) - Towards Making the Most of Context in Neural Machine Translation [112.9845226123306]
我々は、これまでの研究がグローバルな文脈をはっきりと利用しなかったと論じている。
本研究では,各文の局所的文脈を意図的にモデル化する文書レベルNMTフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T03:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。