論文の概要: GRAFT: A Graph-based Flow-aware Agentic Framework for Document-level Machine Translation
- arxiv url: http://arxiv.org/abs/2507.03311v1
- Date: Fri, 04 Jul 2025 05:45:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.670878
- Title: GRAFT: A Graph-based Flow-aware Agentic Framework for Document-level Machine Translation
- Title(参考訳): GRAFT: 文書レベルの機械翻訳のためのグラフベースのフロー認識エージェントフレームワーク
- Authors: Himanshu Dutta, Sunny Manchanda, Prakhar Bapat, Meva Ram Gurjar, Pushpak Bhattacharyya,
- Abstract要約: 文書翻訳のためのGRAFT(Graph Augmented Agentic Framework for Document Level Translation)を提案する。
GRAFTは、セグメンテーション、DAGに基づく依存性モデリング、凝集性フレームワークへの談話対応翻訳を統合している。
8つの翻訳方向と6つの多様なドメインにわたる実験により、GRAFTはDocMTシステムよりも大きな性能向上を達成できることが示された。
- 参考スコア(独自算出の注目度): 29.444855969559153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Document level Machine Translation (DocMT) approaches often struggle with effectively capturing discourse level phenomena. Existing approaches rely on heuristic rules to segment documents into discourse units, which rarely align with the true discourse structure required for accurate translation. Otherwise, they fail to maintain consistency throughout the document during translation. To address these challenges, we propose Graph Augmented Agentic Framework for Document Level Translation (GRAFT), a novel graph based DocMT system that leverages Large Language Model (LLM) agents for document translation. Our approach integrates segmentation, directed acyclic graph (DAG) based dependency modelling, and discourse aware translation into a cohesive framework. Experiments conducted across eight translation directions and six diverse domains demonstrate that GRAFT achieves significant performance gains over state of the art DocMT systems. Specifically, GRAFT delivers an average improvement of 2.8 d BLEU on the TED test sets from IWSLT2017 over strong baselines and 2.3 d BLEU for domain specific translation from English to Chinese. Moreover, our analyses highlight the consistent ability of GRAFT to address discourse level phenomena, yielding coherent and contextually accurate translations.
- Abstract(参考訳): 文書レベルの機械翻訳(DocMT)アプローチは、しばしば談話レベルの現象を効果的に捉えるのに苦労する。
既存のアプローチは、文書を談話単位に分割するヒューリスティックな規則に依存しており、正確な翻訳に必要な真の談話構造とほとんど一致しない。
そうでなければ、翻訳中にドキュメント全体の一貫性を維持することができない。
これらの課題に対処するため、文書翻訳にLarge Language Model(LLM)エージェントを利用する新しいグラフベースのDocMTシステムであるGRAFT(Graph Augmented Agentic Framework for Document Level Translation)を提案する。
提案手法は, セグメンテーション, 指向非巡回グラフ (DAG) に基づく依存性モデリング, および連接型フレームワークへの談話認識翻訳を統合した。
8つの翻訳方向と6つの異なる領域にわたる実験により、GRAFTは最先端のDocMTシステムよりも顕著な性能向上を達成できることを示した。
具体的には、GRAFTは、IWSLT2017のTEDテストセットに対して、強いベースラインに対する平均2.8dBLEUと、英語から中国語へのドメイン固有翻訳のための2.3dBLEUを提供する。
さらに,GRAFTが談話レベルの現象に対処する一貫した能力を強調し,コヒーレントで文脈的に正確な翻訳を行う。
関連論文リスト
- Multilingual Contextualization of Large Language Models for Document-Level Machine Translation [30.005159724115824]
大規模言語モデル (LLM) は文レベルの機械翻訳において高い性能を示している。
高品質な文書レベルのデータを対象とした微調整により,LLMに基づく長期文書翻訳を改善する手法を提案する。
提案手法は,文書から文書への直接翻訳やチャンクレベルの翻訳など,複数の翻訳パラダイムをサポートする。
論文 参考訳(メタデータ) (2025-04-16T14:52:22Z) - Two Intermediate Translations Are Better Than One: Fine-tuning LLMs for Document-level Translation Refinement [19.513243503109035]
大規模言語モデル(LLM)は自己精製によって翻訳品質を向上させることができる。
文章レベルから文書レベルへの翻訳を改良することで、このアイデアを基礎にしています。
文から文への変換(Sent2Sent)とDoc2Docの翻訳は翻訳プロセスの異なる側面に対処するので、翻訳の洗練のための微調整 LLM を提案する。
論文 参考訳(メタデータ) (2025-04-08T02:08:07Z) - Doc-Guided Sent2Sent++: A Sent2Sent++ Agent with Doc-Guided memory for Document-level Machine Translation [11.36816954288264]
本稿では,インクリメンタルな文レベル強制デコード戦略を利用するエージェントであるDoc-Guided Sent2Sent++を紹介する。
私たちは、Sent2Sent++が他のメソッドよりも品質、一貫性、レイテンシで優れていることを実証します。
論文 参考訳(メタデータ) (2025-01-15T02:25:35Z) - GP-UNIT: Generative Prior for Versatile Unsupervised Image-to-Image
Translation [103.54337984566877]
GP-UNIT(Generative Prior-Guided Unsupervised Image-to-image Translation)を新たに導入する。
GP-UNITは、近接ドメインと遠方のドメインの間で有効な翻訳を行うことができる。
我々は,最先端の翻訳モデルよりも頑健で高品質で多種多様な翻訳におけるGP-UNITの優位性を検証した。
論文 参考訳(メタデータ) (2023-06-07T17:59:22Z) - Document Flattening: Beyond Concatenating Context for Document-Level
Neural Machine Translation [45.56189820979461]
Document Flattening(DocFlat)技術は、Flat-Batch Attention(FB)とNeural Context Gate(NCG)をTransformerモデルに統合する。
我々は、英語とドイツ語の翻訳のための3つのベンチマークデータセットに関する総合的な実験と分析を行う。
論文 参考訳(メタデータ) (2023-02-16T04:38:34Z) - Modeling Context With Linear Attention for Scalable Document-Level
Translation [72.41955536834702]
本稿では,近年の文書翻訳における線形アテンションモデルの有効性について検討し,直流帰納バイアスを促進するためにセンデンシャルゲートで拡張する。
感性ゲーティングはIWSLTの翻訳品質をさらに向上させることを示す。
論文 参考訳(メタデータ) (2022-10-16T03:41:50Z) - Multilingual Extraction and Categorization of Lexical Collocations with
Graph-aware Transformers [86.64972552583941]
我々は,グラフ対応トランスフォーマアーキテクチャにより拡張されたBERTに基づくシーケンスタグ付けモデルを提案し,コンテキストにおけるコロケーション認識の課題について評価した。
以上の結果から, モデルアーキテクチャにおける構文的依存関係を明示的に符号化することは有用であり, 英語, スペイン語, フランス語におけるコロケーションのタイプ化の差異について考察する。
論文 参考訳(メタデータ) (2022-05-23T16:47:37Z) - Improving Multilingual Translation by Representation and Gradient
Regularization [82.42760103045083]
表現レベルと勾配レベルの両方でNMTモデルを正規化するための共同手法を提案する。
提案手法は,オフターゲット翻訳の発生率の低減とゼロショット翻訳性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-09-10T10:52:21Z) - Document Graph for Neural Machine Translation [42.13593962963306]
文書は, 距離に関係なく, 関連コンテキストを関連づけるグラフとして表現できることを示す。
IWSLT English- French, Chinese- English, WMT English-German and Opensubtitle English- Russian などの様々なNMTベンチマークの実験では、文書グラフの使用により翻訳品質が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-12-07T06:48:59Z) - Sign Language Transformers: Joint End-to-end Sign Language Recognition
and Translation [59.38247587308604]
本稿では,連続手話認識と翻訳を共同で学習するトランスフォーマーアーキテクチャを提案する。
RWTH-PHOENIX-Weather-2014Tデータセットの認識と翻訳性能の評価を行った。
我々の翻訳ネットワークは、動画を音声言語に、光沢を音声言語翻訳モデルに、どちらよりも優れています。
論文 参考訳(メタデータ) (2020-03-30T21:35:09Z) - Towards Making the Most of Context in Neural Machine Translation [112.9845226123306]
我々は、これまでの研究がグローバルな文脈をはっきりと利用しなかったと論じている。
本研究では,各文の局所的文脈を意図的にモデル化する文書レベルNMTフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T03:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。