論文の概要: Contextual Neural Machine Translation Improves Translation of Cataphoric
Pronouns
- arxiv url: http://arxiv.org/abs/2004.09894v2
- Date: Tue, 28 Apr 2020 08:27:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 06:47:26.063484
- Title: Contextual Neural Machine Translation Improves Translation of Cataphoric
Pronouns
- Title(参考訳): 文脈ニューラルマシン翻訳はカタフォリック代名詞の翻訳を改善する
- Authors: KayYen Wong, Sameen Maruf, Gholamreza Haffari
- Abstract要約: 本研究では,将来の文脈で訓練された文脈的NMTモデルの性能と過去の文脈で訓練された文脈とを比較し,文脈としての将来の文の効果について検討する。
提案手法は, 文脈に依存しないトランスフォーマーよりも, 将来的な文脈の活用が著しく向上することを示し, 汎用的および代名詞的自動測定を用いた実験と評価を行った。
- 参考スコア(独自算出の注目度): 50.245845110446496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advent of context-aware NMT has resulted in promising improvements in the
overall translation quality and specifically in the translation of discourse
phenomena such as pronouns. Previous works have mainly focused on the use of
past sentences as context with a focus on anaphora translation. In this work,
we investigate the effect of future sentences as context by comparing the
performance of a contextual NMT model trained with the future context to the
one trained with the past context. Our experiments and evaluation, using
generic and pronoun-focused automatic metrics, show that the use of future
context not only achieves significant improvements over the context-agnostic
Transformer, but also demonstrates comparable and in some cases improved
performance over its counterpart trained on past context. We also perform an
evaluation on a targeted cataphora test suite and report significant gains over
the context-agnostic Transformer in terms of BLEU.
- Abstract(参考訳): 文脈対応NMTの出現は、全体的な翻訳品質、特に代名詞などの談話現象の翻訳において有望な改善をもたらした。
以前の作品は、主にアナフォラ翻訳に焦点をあてた文脈として過去文の使用に焦点を当ててきた。
本研究では,将来の文脈で訓練された文脈的NMTモデルの性能と過去の文脈で訓練された文脈とを比較し,文脈としての将来の文の効果について検討する。
汎用的・代名詞的自動メトリクスを用いた実験と評価により, 未来的文脈の使用は, 文脈非依存トランスフォーマーよりも大幅に改善されるだけでなく, 過去の文脈で訓練された結果と比較して, 同等で, 場合によっては性能が向上することを示す。
また,対象とするcataphoraテストスイートの評価を行い,bleuの文脈非依存トランスフォーマーに対して有意な向上を報告した。
関連論文リスト
- A Case Study on Contextual Machine Translation in a Professional Scenario of Subtitling [3.925328332747599]
本稿では,テレビ字幕翻訳の専門的シナリオにおける機械翻訳(MT)のメリットを検討するために実施した産業事例について報告する。
その結果,文脈認識モデルであるMSCueの出力を補正する際の文脈関連エラーが有意に少ないことがわかった。
また, MTで連続的に観察される有意なギャップとして, 文脈的不適切さが強調される, 採用後調査の結果も提示する。
論文 参考訳(メタデータ) (2024-06-27T11:20:14Z) - Understanding and Addressing the Under-Translation Problem from the Perspective of Decoding Objective [72.83966378613238]
最新のニューラル・マシン・トランスレーション(NMT)システムでは、アンダー・トランスレーションとオーバー・トランスレーションの2つの課題が残っている。
我々は,NMTにおけるアンダートランスレーションの根本原因を詳細に分析し,デコード目的の観点から解説する。
本研究は,低翻訳の検知器としてEOS(End Of Sentence)予測の信頼性を活用し,低翻訳のリスクが高い候補を罰する信頼性に基づくペナルティを強化することを提案する。
論文 参考訳(メタデータ) (2024-05-29T09:25:49Z) - Context-aware Neural Machine Translation for English-Japanese Business
Scene Dialogues [14.043741721036543]
本稿では,日英ビジネス対話翻訳における現在のニューラル・マシン・トランスフォーメーション(NMT)モデルの性能向上について検討する。
本稿では,話者のターンやシーンタイプなどの外部情報を符号化する新しいコンテキストトークンを提案する。
我々は,先行文と外部文脈(CXMIは文脈サイズを増大させる)の両方をモデルに利用し,敬語翻訳のより焦点を絞った分析を行う。
論文 参考訳(メタデータ) (2023-11-20T18:06:03Z) - Challenges in Context-Aware Neural Machine Translation [39.89082986080746]
コンテキスト対応ニューラルマシン翻訳は、会話依存を解決するために、文レベルのコンテキストを超えた情報を活用する。
十分な直感にもかかわらず、ほとんどの文脈対応翻訳モデルは、文レベルシステムよりもわずかに改善されている。
本稿では,パラパラグラフ(パラパラグラフ)翻訳という,文書レベルの翻訳のより現実的な設定を提案する。
論文 参考訳(メタデータ) (2023-05-23T07:08:18Z) - HanoiT: Enhancing Context-aware Translation via Selective Context [95.93730812799798]
コンテキスト対応ニューラルネットワーク翻訳は、文書レベルのコンテキストを使用して翻訳品質を改善することを目的としている。
無関係または自明な単語は、いくつかのノイズをもたらし、モデルが現在の文と補助的な文脈の関係を学ぶのを邪魔する可能性がある。
そこで本稿では,階層的選択機構を備えたエンド・ツー・エンドのエンコーダ・デコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-17T12:07:13Z) - When Does Translation Require Context? A Data-driven, Multilingual
Exploration [71.43817945875433]
談話の適切な処理は機械翻訳(MT)の品質に大きく貢献する
文脈認識型MTにおける最近の研究は、評価中に少量の談話現象を標的にしようとしている。
談話現象のモデル性能を識別・評価するタグの集合である,多言語談話認識ベンチマークを開発した。
論文 参考訳(メタデータ) (2021-09-15T17:29:30Z) - Measuring and Increasing Context Usage in Context-Aware Machine
Translation [64.5726087590283]
機械翻訳モデルによるコンテキストの使用を定量的にするために、新しいメトリクス、条件付き相互情報を導入します。
次に,コンテキスト認識モデルによってコンテキストの使用量を増やすために,コンテキスト認識ワードドロップアウトという,新しい簡易なトレーニング手法を導入する。
論文 参考訳(メタデータ) (2021-05-07T19:55:35Z) - Can Your Context-Aware MT System Pass the DiP Benchmark Tests? :
Evaluation Benchmarks for Discourse Phenomena in Machine Translation [7.993547048820065]
本稿では,4つの主要な談話現象の追跡と改善を目的としたMTベンチマークデータセットについて紹介する。
驚くべきことに、既存の文脈認識モデルでは、言語や現象間の会話関連翻訳が一貫して改善されない。
論文 参考訳(メタデータ) (2020-04-30T07:15:36Z) - Multilingual Alignment of Contextual Word Representations [49.42244463346612]
BERTはXNLIのゼロショット性能をベースモデルに比べて大幅に改善した。
単語検索の文脈バージョンを導入し、下流のゼロショット転送とよく相関していることを示す。
これらの結果は、大規模多言語事前学習モデルの理解に有用な概念としてコンテキストアライメントをサポートする。
論文 参考訳(メタデータ) (2020-02-10T03:27:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。