論文の概要: TACTIC: Translation Agents with Cognitive-Theoretic Interactive Collaboration
- arxiv url: http://arxiv.org/abs/2506.08403v1
- Date: Tue, 10 Jun 2025 03:22:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:41.356468
- Title: TACTIC: Translation Agents with Cognitive-Theoretic Interactive Collaboration
- Title(参考訳): TACTIC:認知論的対話型協調型翻訳エージェント
- Authors: Weiya Li, Junjie Chen, Bei Li, Boyang Liu, Zichen Wen, Nuanqiao Shan, Xiaoqian Liu, Anping Liu, Huajie Liu, Youyan Wang, Wujiuge Yin, Hu Song, Bing Huang, Zhiyuan Xia, Jialiang Chen, Linfeng Zhang,
- Abstract要約: 本稿では,TACTICと呼ばれる認知情報に基づくマルチエージェントフレームワークを提案する。
ヒトの翻訳行動で観察される主要な認知過程を反映する6つの機能的に異なるエージェントから構成される。
我々の手法は一貫して最先端の性能を達成する。
- 参考スコア(独自算出の注目度): 18.392868426849247
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine translation has long been a central task in natural language processing. With the rapid advancement of large language models (LLMs), there has been remarkable progress in translation quality. However, fully realizing the translation potential of LLMs remains an open challenge. Recent studies have explored multi-agent systems to decompose complex translation tasks into collaborative subtasks, showing initial promise in enhancing translation quality through agent cooperation and specialization. Nevertheless, existing multi-agent translation frameworks largely neglect foundational insights from cognitive translation studies. These insights emphasize how human translators employ different cognitive strategies, such as balancing literal and free translation, refining expressions based on context, and iteratively evaluating outputs. To address this limitation, we propose a cognitively informed multi-agent framework called TACTIC, which stands for T ranslation A gents with Cognitive- T heoretic Interactive Collaboration. The framework comprises six functionally distinct agents that mirror key cognitive processes observed in human translation behavior. These include agents for drafting, refinement, evaluation, scoring, context reasoning, and external knowledge gathering. By simulating an interactive and theory-grounded translation workflow, TACTIC effectively leverages the full capacity of LLMs for high-quality translation. Experimental results on diverse language pairs from the FLORES-200 and WMT24 benchmarks show that our method consistently achieves state-of-the-art performance. Using DeepSeek-V3 as the base model, TACTIC surpasses GPT-4.1 by an average of +0.6 XCOMET and +1.18 COMETKIWI-23. Compared to DeepSeek-R1, it further improves by +0.84 XCOMET and +2.99 COMETKIWI-23. Code is available at https://github.com/weiyali126/TACTIC.
- Abstract(参考訳): 機械翻訳は長年、自然言語処理の中心的課題であった。
大規模言語モデル(LLM)の急速な進歩により,翻訳品質は著しく向上した。
しかし、LLMの翻訳可能性を完全に実現することは、未解決の課題である。
近年,複雑な翻訳タスクを協調的なサブタスクに分解するマルチエージェントシステムの研究が進められており,エージェント協調と特殊化による翻訳品質の向上が期待できる。
それにもかかわらず、既存のマルチエージェント翻訳フレームワークは認知翻訳研究の基本的な洞察をほとんど無視している。
これらの洞察は、人間翻訳者がリテラルと自由翻訳のバランスをとること、文脈に基づく表現を洗練すること、アウトプットを反復的に評価することなど、異なる認知戦略をどのように採用するかを強調している。
この制限に対処するため,認知的対話型コラボレーションを用いたTランサレーションAのフレームワークであるTACTICを提案する。
このフレームワークは、人間の翻訳行動で観察される主要な認知過程を反映する6つの機能的に異なるエージェントから構成される。
これには、起草、洗練、評価、評価、評価、文脈推論、外部知識収集のためのエージェントが含まれる。
対話的で理論に基づく翻訳ワークフローをシミュレートすることで、TACTICはLLMのフル容量を高品質な翻訳に有効活用する。
FLORES-200 と WMT24 のベンチマークによる多種多様な言語対の実験結果から,本手法が常に最先端の性能を実現することを示す。
DeepSeek-V3 をベースモデルとして、TACTIC は GPT-4.1 を平均 +0.6 XCOMET と +1.18 COMETKIWI-23 で上回っている。
DeepSeek-R1と比較すると、+0.84 XCOMETと+2.99 COMETKIWI-23に改善されている。
コードはhttps://github.com/weiyali126/TACTIC.comで入手できる。
関連論文リスト
- LLM-based Translation Inference with Iterative Bilingual Understanding [52.46978502902928]
大規模言語モデル(LLM)の言語間機能に基づいた,新しい反復的バイリンガル理解翻訳法を提案する。
LLMの言語横断的能力により、ソース言語とターゲット言語を別々にコンテキスト理解することが可能になる。
提案したIBUTは、いくつかの強力な比較法より優れている。
論文 参考訳(メタデータ) (2024-10-16T13:21:46Z) - (Perhaps) Beyond Human Translation: Harnessing Multi-Agent Collaboration for Translating Ultra-Long Literary Texts [56.7988577327046]
翻訳企業の役割と協調の実践をシミュレートする,新しいマルチエージェントフレームワークであるTransAgentsを紹介する。
本研究は,翻訳品質の向上,特にテキストの長文化におけるマルチエージェント協調の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2024-05-20T05:55:08Z) - Exploring Human-Like Translation Strategy with Large Language Models [93.49333173279508]
大規模言語モデル(LLM)は、一般的なシナリオにおいて印象的な機能を示している。
本研究は,マルチアスペクト・プロンプトと選択のためのMAPSフレームワークを提案する。
品質推定に基づく選択機構を用いて,ノイズや不ヘッピーな知識を抽出する。
論文 参考訳(メタデータ) (2023-05-06T19:03:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。