論文の概要: TACTIC: Translation Agents with Cognitive-Theoretic Interactive Collaboration
- arxiv url: http://arxiv.org/abs/2506.08403v2
- Date: Wed, 11 Jun 2025 15:57:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-12 23:41:16.739935
- Title: TACTIC: Translation Agents with Cognitive-Theoretic Interactive Collaboration
- Title(参考訳): TACTIC:認知論的対話型協調型翻訳エージェント
- Authors: Weiya Li, Junjie Chen, Bei Li, Boyang Liu, Zichen Wen, Nuanqiao Shan, Xiaoqian Liu, Anping Liu, Huajie Liu, Hu Song, Linfeng Zhang,
- Abstract要約: 本稿では,TACTICと呼ばれる認知情報に基づくマルチエージェントフレームワークを提案する。
ヒトの翻訳行動で観察される主要な認知過程を反映する6つの機能的に異なるエージェントから構成される。
我々の手法は一貫して最先端の性能を達成する。
- 参考スコア(独自算出の注目度): 19.58067098896903
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine translation has long been a central task in natural language processing. With the rapid advancement of large language models (LLMs), there has been remarkable progress in translation quality. However, fully realizing the translation potential of LLMs remains an open challenge. Recent studies have explored multi-agent systems to decompose complex translation tasks into collaborative subtasks, showing initial promise in enhancing translation quality through agent cooperation and specialization. Nevertheless, existing multi-agent translation frameworks largely neglect foundational insights from cognitive translation studies. These insights emphasize how human translators employ different cognitive strategies, such as balancing literal and free translation, refining expressions based on context, and iteratively evaluating outputs. To address this limitation, we propose a cognitively informed multi-agent framework called TACTIC, which stands for T ranslation A gents with Cognitive- T heoretic Interactive Collaboration. The framework comprises six functionally distinct agents that mirror key cognitive processes observed in human translation behavior. These include agents for drafting, refinement, evaluation, scoring, context reasoning, and external knowledge gathering. By simulating an interactive and theory-grounded translation workflow, TACTIC effectively leverages the full capacity of LLMs for high-quality translation. Experimental results on diverse language pairs from the FLORES-200 and WMT24 benchmarks show that our method consistently achieves state-of-the-art performance. Using DeepSeek-V3 as the base model, TACTIC surpasses GPT-4.1 by an average of +0.6 XCOMET and +1.18 COMETKIWI-23. Compared to DeepSeek-R1, it further improves by +0.84 XCOMET and +2.99 COMETKIWI-23. Code is available at https://github.com/weiyali126/TACTIC.
- Abstract(参考訳): 機械翻訳は長年、自然言語処理の中心的課題であった。
大規模言語モデル(LLM)の急速な進歩により,翻訳品質は著しく向上した。
しかし、LLMの翻訳可能性を完全に実現することは、未解決の課題である。
近年,複雑な翻訳タスクを協調的なサブタスクに分解するマルチエージェントシステムの研究が進められており,エージェント協調と特殊化による翻訳品質の向上が期待できる。
それにもかかわらず、既存のマルチエージェント翻訳フレームワークは認知翻訳研究の基本的な洞察をほとんど無視している。
これらの洞察は、人間翻訳者がリテラルと自由翻訳のバランスをとること、文脈に基づく表現を洗練すること、アウトプットを反復的に評価することなど、異なる認知戦略をどのように採用するかを強調している。
この制限に対処するため,認知的対話型コラボレーションを用いたTランサレーションAのフレームワークであるTACTICを提案する。
このフレームワークは、人間の翻訳行動で観察される主要な認知過程を反映する6つの機能的に異なるエージェントから構成される。
これには、起草、洗練、評価、評価、評価、文脈推論、外部知識収集のためのエージェントが含まれる。
対話的で理論に基づく翻訳ワークフローをシミュレートすることで、TACTICはLLMのフル容量を高品質な翻訳に有効活用する。
FLORES-200 と WMT24 のベンチマークによる多種多様な言語対の実験結果から,本手法が常に最先端の性能を実現することを示す。
DeepSeek-V3 をベースモデルとして、TACTIC は GPT-4.1 を平均 +0.6 XCOMET と +1.18 COMETKIWI-23 で上回っている。
DeepSeek-R1と比較すると、+0.84 XCOMETと+2.99 COMETKIWI-23に改善されている。
コードはhttps://github.com/weiyali126/TACTIC.comで入手できる。
関連論文リスト
- Seed-X: Building Strong Multilingual Translation LLM with 7B Parameters [53.59868121093848]
7Bパラメータサイズを持つオープンソースの言語モデル(LLM)のファミリーであるSeed-Xを紹介する。
ベースモデルは、28言語にわたるモノリンガルコンテンツとバイリンガルコンテンツの両方を含む、多種多様な高品質データセットで事前訓練されている。
その後、インストラクションモデルは、Chain-of-Thought(CoT)推論によって翻訳され、強化学習(RL)によりさらに強化され、多様な言語対をまたいだより良い一般化が達成される。
論文 参考訳(メタデータ) (2025-07-18T03:19:43Z) - Function-to-Style Guidance of LLMs for Code Translation [59.487054943812836]
コード翻訳における大規模言語モデルの性能向上を目的として,F2STransという関数型案内パラダイムを提案する。
提案手法は,(1)高品質なソースターゲットコードペアを用いた翻訳精度を最適化する機能学習という2つの重要な段階から構成される。
我々は,最新のソースコード,広範なテストケース,手動で注釈付き接頭辞翻訳を含む新しいコード翻訳ベンチマークを導入する。
論文 参考訳(メタデータ) (2025-07-15T08:25:02Z) - Collaboration is all you need: LLM Assisted Safe Code Translation [4.3764649156831235]
UniTranslatorは、複数のコンパクトLLM間の協調的な取り組みとしてコード翻訳を再想像するフレームワークである。
特殊なエージェントのインタラクションを編成することによって、UniTranslatorは、より大きなモノリシックモデルに匹敵する精度と効率のレベルを達成する。
論文 参考訳(メタデータ) (2025-03-14T09:42:07Z) - LLM-based Translation Inference with Iterative Bilingual Understanding [52.46978502902928]
大規模言語モデル(LLM)の言語間機能に基づいた,新しい反復的バイリンガル理解翻訳法を提案する。
LLMの言語横断的能力により、ソース言語とターゲット言語を別々にコンテキスト理解することが可能になる。
提案したIBUTは、いくつかの強力な比較法より優れている。
論文 参考訳(メタデータ) (2024-10-16T13:21:46Z) - AVIATE: Exploiting Translation Variants of Artifacts to Improve IR-based Traceability Recovery in Bilingual Software Projects [14.643142867163748]
トレーサビリティは、様々なソフトウェア開発活動を促進する上で重要な役割を担います。
IR(Information Retrieval)ベースのアプローチは、テキストの類似性を利用して、アーティファクト間のトレースの可能性を測定する。
ソフトウェア開発のグローバル化は、同じ概念で可能な多言語主義など、新たな課題をもたらしている。
論文 参考訳(メタデータ) (2024-09-28T10:21:37Z) - TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - (Perhaps) Beyond Human Translation: Harnessing Multi-Agent Collaboration for Translating Ultra-Long Literary Texts [56.7988577327046]
翻訳企業の役割と協調の実践をシミュレートする,新しいマルチエージェントフレームワークであるTransAgentsを紹介する。
本研究は,翻訳品質の向上,特にテキストの長文化におけるマルチエージェント協調の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2024-05-20T05:55:08Z) - Exploring Human-Like Translation Strategy with Large Language Models [93.49333173279508]
大規模言語モデル(LLM)は、一般的なシナリオにおいて印象的な機能を示している。
本研究は,マルチアスペクト・プロンプトと選択のためのMAPSフレームワークを提案する。
品質推定に基づく選択機構を用いて,ノイズや不ヘッピーな知識を抽出する。
論文 参考訳(メタデータ) (2023-05-06T19:03:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。