論文の概要: Investigating Length Issues in Document-level Machine Translation
- arxiv url: http://arxiv.org/abs/2412.17592v1
- Date: Mon, 23 Dec 2024 14:08:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:59:34.829043
- Title: Investigating Length Issues in Document-level Machine Translation
- Title(参考訳): 文書レベルの機械翻訳における長さ問題の検討
- Authors: Ziqian Peng, Rachel Bawden, François Yvon,
- Abstract要約: 機械翻訳出力に対する長さインクリメントの影響を正確に測定する新しい手法を設計・実装する。
実験の結果, (a) 翻訳性能は入力テキストの長さとともに低下し, (b) 文書内の文の位置や翻訳品質は文書に先行する文に対して高い値を示した。
本結果から,文書レベルMTは計算可能であっても,文ベースMTの性能に合わないことが示唆された。
- 参考スコア(独自算出の注目度): 19.397788794005862
- License:
- Abstract: Transformer architectures are increasingly effective at processing and generating very long chunks of texts, opening new perspectives for document-level machine translation (MT). In this work, we challenge the ability of MT systems to handle texts comprising up to several thousands of tokens. We design and implement a new approach designed to precisely measure the effect of length increments on MT outputs. Our experiments with two representative architectures unambiguously show that (a)~translation performance decreases with the length of the input text; (b)~the position of sentences within the document matters and translation quality is higher for sentences occurring earlier in a document. We further show that manipulating the distribution of document lengths and of positional embeddings only marginally mitigates such problems. Our results suggest that even though document-level MT is computationally feasible, it does not yet match the performance of sentence-based MT.
- Abstract(参考訳): トランスフォーマーアーキテクチャは、非常に長いテキストのチャンクの処理と生成に有効になり、文書レベルの機械翻訳(MT)の新しい視点が開かれた。
本研究では,最大数千のトークンからなるテキストを扱うMTシステムの能力に挑戦する。
MT出力に対する長さインクリメントの影響を正確に測定する新しい手法を設計・実装する。
2つの代表的なアーキテクチャによる実験は、明白にそれを示しています。
(a)~翻訳性能は入力テキストの長さによって低下する。
b) 文書内の文の位置や翻訳品質は、文書の早期に発生する文に対して高い。
さらに、文書の長さと位置埋め込みの分布を操作することは、そのような問題を極端に軽減することを示します。
本結果から,文書レベルMTは計算可能であっても,文ベースMTの性能に合わないことが示唆された。
関連論文リスト
- M3T: A New Benchmark Dataset for Multi-Modal Document-Level Machine Translation [32.39711525205274]
文書翻訳はニューラルマシン翻訳(NMT)システムにとって課題となる。
ほとんどの文書レベルのNMTシステムは、厳密にキュレートされた文レベルの並列データに依存している。
現実世界の文書は、これらの前提に反する複雑なテキストレイアウトを持つことが多い。
本稿では,半構造化文書を翻訳する包括的タスクにおいて,NMTシステムを評価するための新しいベンチマークデータセットであるM3Tを紹介する。
論文 参考訳(メタデータ) (2024-06-12T14:28:25Z) - Contextual Refinement of Translations: Large Language Models for Sentence and Document-Level Post-Editing [12.843274390224853]
大規模言語モデル(LLM)は、様々な自然言語処理タスクでかなりの成功を収めている。
ニューラルネットワーク翻訳における最先端性能は,まだ達成できていない。
直接翻訳者ではなく,自動編集者 (APE) としてLLMを適用することを提案する。
論文 参考訳(メタデータ) (2023-10-23T12:22:15Z) - Improving Long Context Document-Level Machine Translation [51.359400776242786]
翻訳の一貫性と凝集性を改善するために、ニューラルネットワーク翻訳(NMT)のための文書レベルのコンテキストが不可欠である。
文書レベルのNMTに関する多くの著作が出版されているが、ほとんどの作品では局所的な文脈に制限されている。
本稿では、メモリ消費を同時に低減しつつ、シーケンスの最も関連性の高い部分に注意を集中させる制約付注意変種を提案する。
論文 参考訳(メタデータ) (2023-06-08T13:28:48Z) - Discourse Centric Evaluation of Machine Translation with a Densely
Annotated Parallel Corpus [82.07304301996562]
本稿では,江らが導入した大規模並列コーパスBWBに基づいて,リッチな談話アノテーションを用いた新しいデータセットを提案する。
ソース言語とターゲット言語の談話構造と類似点と相違点について検討する。
我々はMT出力が人間の翻訳と基本的に異なることを発見した。
論文 参考訳(メタデータ) (2023-05-18T17:36:41Z) - Error Analysis Prompting Enables Human-Like Translation Evaluation in Large Language Models [57.80514758695275]
機械翻訳(MT)の品質を評価するために,大規模言語モデル(LLM)を用いることで,システムレベルでの最先端のパフォーマンスを実現する。
我々はtextbftexttError Analysis Prompting (EAPrompt) と呼ばれる新しいプロンプト手法を提案する。
本手法は,多次元品質指標 (MQM) とtextitproduces を用いて,システムレベルとセグメントレベルの両方で説明可能かつ信頼性の高いMT評価を行う。
論文 参考訳(メタデータ) (2023-03-24T05:05:03Z) - Extrinsic Evaluation of Machine Translation Metrics [78.75776477562087]
文レベルでの翻訳と翻訳の良さを区別する上で,自動尺度が信頼性が高いかどうかは不明である。
我々は,3つの下流言語タスクにおいて,最も広く使用されているMTメトリクス(chrF,COMET,BERTScoreなど)のセグメントレベル性能を評価する。
実験の結果,各指標は下流結果の外部評価と負の相関を示すことがわかった。
論文 参考訳(メタデータ) (2022-12-20T14:39:58Z) - A Bilingual Parallel Corpus with Discourse Annotations [82.07304301996562]
本稿では,Jiang et al. (2022)で最初に導入された大きな並列コーパスであるBWBと,注釈付きテストセットについて述べる。
BWBコーパスは、専門家によって英語に翻訳された中国の小説で構成されており、注釈付きテストセットは、様々な談話現象をモデル化する機械翻訳システムの能力を調査するために設計されている。
論文 参考訳(メタデータ) (2022-10-26T12:33:53Z) - Modeling Context With Linear Attention for Scalable Document-Level
Translation [72.41955536834702]
本稿では,近年の文書翻訳における線形アテンションモデルの有効性について検討し,直流帰納バイアスを促進するためにセンデンシャルゲートで拡張する。
感性ゲーティングはIWSLTの翻訳品質をさらに向上させることを示す。
論文 参考訳(メタデータ) (2022-10-16T03:41:50Z) - Diving Deep into Context-Aware Neural Machine Translation [36.17847243492193]
本稿では,4つの領域における文書レベルのNMTモデルの性能を解析する。
ドキュメントレベルのNMTに最適なアプローチはひとつもありません。
論文 参考訳(メタデータ) (2020-10-19T13:23:12Z) - Long-Short Term Masking Transformer: A Simple but Effective Baseline for
Document-level Neural Machine Translation [28.94748226472447]
文書レベルの翻訳における標準変換器の長所と短所について検討する。
本稿では,標準変圧器上での自己注意を隠蔽する,驚くほど単純な長短項マスクを提案する。
BLEUの強い結果が得られ、談話現象を捉えることができる。
論文 参考訳(メタデータ) (2020-09-19T00:29:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。