論文の概要: Self-Improving Multilingual Long Reasoning via Translation-Reasoning Integrated Training
- arxiv url: http://arxiv.org/abs/2602.05940v1
- Date: Thu, 05 Feb 2026 17:55:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:09.100056
- Title: Self-Improving Multilingual Long Reasoning via Translation-Reasoning Integrated Training
- Title(参考訳): 翻訳推論統合学習による多言語ロング推論の自己改善
- Authors: Junxiao Liu, Zhijun Wang, Yixiao Li, Zhejian Lai, Liqian Huang, Xin Huang, Xue Han, Junlan Feng, Shujian Huang,
- Abstract要約: 長い推論モデルは多言語設定でしばしば苦労する。
翻訳学習を多言語推論に統合する自己改善フレームワークであるTRIT(Translation-Reasoning Integrated Training)を提案する。
- 参考スコア(独自算出の注目度): 50.177839592528294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Long reasoning models often struggle in multilingual settings: they tend to reason in English for non-English questions; when constrained to reasoning in the question language, accuracies drop substantially. The struggle is caused by the limited abilities for both multilingual question understanding and multilingual reasoning. To address both problems, we propose TRIT (Translation-Reasoning Integrated Training), a self-improving framework that integrates the training of translation into multilingual reasoning. Without external feedback or additional multilingual data, our method jointly enhances multilingual question understanding and response generation. On MMATH, our method outperforms multiple baselines by an average of 7 percentage points, improving both answer correctness and language consistency. Further analysis reveals that integrating translation training improves cross-lingual question alignment by over 10 percentage points and enhances translation quality for both mathematical questions and general-domain text, with gains up to 8.4 COMET points on FLORES-200.
- Abstract(参考訳): 長い推論モデルは、英語で非英語の質問を推論する傾向があり、質問言語での推論に制約された場合、精度は大幅に低下する。
この闘争は、多言語質問理解と多言語推論の両方の能力の制限によって引き起こされる。
両問題に対処するため,多言語推論に翻訳学習を統合する自己改善フレームワークであるTRIT(Translation-Reasoning Integrated Training)を提案する。
外部からのフィードバックや追加の多言語データがないため,本手法は多言語質問理解と応答生成を協調的に強化する。
MMATHでは,回答の正しさと言語整合性が向上し,平均7ポイントのベースライン性能が向上する。
さらに、翻訳学習の統合により、FLORES-200上で最大8.4のCOMETポイントを獲得して、言語間の質問のアライメントが10ポイント以上向上し、数学的な質問と一般ドメインのテキストの翻訳品質が向上することを明らかにした。
関連論文リスト
- Align to the Pivot: Dual Alignment with Self-Feedback for Multilingual Math Reasoning [71.4175109189942]
Pivot-Aligned Self-Feedback Multilingual Reasoning (PASMR)を提案する。
このアプローチは、モデルの第一言語をピボット言語として指定する。
外部の正しい回答や報酬モデルに頼ることなく、言語横断的な自己フィードバック機構を確立する。
論文 参考訳(メタデータ) (2026-01-25T03:20:00Z) - Multilinguality Does not Make Sense: Investigating Factors Behind Zero-Shot Transfer in Sense-Aware Tasks [3.274367403737527]
言語間移動は現代のNLPの中心であり、モデルは訓練された言語とは異なる言語でタスクを実行することができる。
一般的な仮定は、より多くの言語でのトレーニングはゼロショット転送を改善するというものである。
本手法は,感性を考慮したタスクの多義性や語彙的意味変化で検証し,多言語性は効果的な伝達には必要ないことを見いだす。
論文 参考訳(メタデータ) (2025-05-30T17:36:20Z) - Demystifying Multilingual Chain-of-Thought in Process Reward Modeling [86.98098988779809]
プロセス報酬モデル(PRM)を多言語設定に拡張するという課題に対処する。
我々は、7つの言語にまたがるデータセット上で多言語PRMを訓練し、それを英語から翻訳する。
本結果は,学習言語数と英語データ量の両方に対する多言語PRMの感度を強調した。
論文 参考訳(メタデータ) (2025-02-18T09:11:44Z) - Delving Deeper into Cross-lingual Visual Question Answering [115.16614806717341]
標準学習装置に簡単な修正を加えることで、モノリンガル英語のパフォーマンスへの移行ギャップを大幅に減らすことができることを示す。
多言語マルチモーダル変換器の多言語間VQAを多言語間VQAで解析する。
論文 参考訳(メタデータ) (2022-02-15T18:22:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。