論文の概要: Self-Improving Multilingual Long Reasoning via Translation-Reasoning Integrated Training
- arxiv url: http://arxiv.org/abs/2602.05940v1
- Date: Thu, 05 Feb 2026 17:55:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:09.100056
- Title: Self-Improving Multilingual Long Reasoning via Translation-Reasoning Integrated Training
- Title(参考訳): 翻訳推論統合学習による多言語ロング推論の自己改善
- Authors: Junxiao Liu, Zhijun Wang, Yixiao Li, Zhejian Lai, Liqian Huang, Xin Huang, Xue Han, Junlan Feng, Shujian Huang,
- Abstract要約: 長い推論モデルは多言語設定でしばしば苦労する。
翻訳学習を多言語推論に統合する自己改善フレームワークであるTRIT(Translation-Reasoning Integrated Training)を提案する。
- 参考スコア(独自算出の注目度): 50.177839592528294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Long reasoning models often struggle in multilingual settings: they tend to reason in English for non-English questions; when constrained to reasoning in the question language, accuracies drop substantially. The struggle is caused by the limited abilities for both multilingual question understanding and multilingual reasoning. To address both problems, we propose TRIT (Translation-Reasoning Integrated Training), a self-improving framework that integrates the training of translation into multilingual reasoning. Without external feedback or additional multilingual data, our method jointly enhances multilingual question understanding and response generation. On MMATH, our method outperforms multiple baselines by an average of 7 percentage points, improving both answer correctness and language consistency. Further analysis reveals that integrating translation training improves cross-lingual question alignment by over 10 percentage points and enhances translation quality for both mathematical questions and general-domain text, with gains up to 8.4 COMET points on FLORES-200.
- Abstract(参考訳): 長い推論モデルは、英語で非英語の質問を推論する傾向があり、質問言語での推論に制約された場合、精度は大幅に低下する。
この闘争は、多言語質問理解と多言語推論の両方の能力の制限によって引き起こされる。
両問題に対処するため,多言語推論に翻訳学習を統合する自己改善フレームワークであるTRIT(Translation-Reasoning Integrated Training)を提案する。
外部からのフィードバックや追加の多言語データがないため,本手法は多言語質問理解と応答生成を協調的に強化する。
MMATHでは,回答の正しさと言語整合性が向上し,平均7ポイントのベースライン性能が向上する。
さらに、翻訳学習の統合により、FLORES-200上で最大8.4のCOMETポイントを獲得して、言語間の質問のアライメントが10ポイント以上向上し、数学的な質問と一般ドメインのテキストの翻訳品質が向上することを明らかにした。
関連論文リスト
- When Meanings Meet: Investigating the Emergence and Quality of Shared Concept Spaces during Multilingual Language Model Training [57.230355403478995]
本研究では,EuroLLMの事前学習における言語に依存しない概念空間の開発について検討する。
共有概念空間は早期に出現し、洗練され続けていますが、それらとの整合性は言語に依存しています。
従来の作業とは対照的に、細かな手作業分析により、翻訳品質の顕著な向上は、行動の変化を反映していることが判明した。
論文 参考訳(メタデータ) (2026-01-30T11:23:01Z) - Align to the Pivot: Dual Alignment with Self-Feedback for Multilingual Math Reasoning [71.4175109189942]
Pivot-Aligned Self-Feedback Multilingual Reasoning (PASMR)を提案する。
このアプローチは、モデルの第一言語をピボット言語として指定する。
外部の正しい回答や報酬モデルに頼ることなく、言語横断的な自己フィードバック機構を確立する。
論文 参考訳(メタデータ) (2026-01-25T03:20:00Z) - Do Language Models Reason Across Languages? [19.660512783888016]
言語モデルは,ブリッジ情報を提供するものよりも,回答スパン文書の言語変化に敏感であることがわかった。
サブクエストによる多段階推論を導くための単純な3段階のSUBQプロンプト手法を提案する。
論文 参考訳(メタデータ) (2026-01-10T17:59:34Z) - Think Natively: Unlocking Multilingual Reasoning with Consistency-Enhanced Reinforcement Learning [85.7304930030649]
本稿では,言語一貫性報酬と言語間思考アライメント報酬によって訓練されたM-Thinkerを提案する。
M-Thinkerは2つのマルチ言語ベンチマークで100%近い言語一貫性と優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-10-08T17:55:02Z) - Multilinguality Does not Make Sense: Investigating Factors Behind Zero-Shot Transfer in Sense-Aware Tasks [3.274367403737527]
言語間移動は現代のNLPの中心であり、モデルは訓練された言語とは異なる言語でタスクを実行することができる。
一般的な仮定は、より多くの言語でのトレーニングはゼロショット転送を改善するというものである。
本手法は,感性を考慮したタスクの多義性や語彙的意味変化で検証し,多言語性は効果的な伝達には必要ないことを見いだす。
論文 参考訳(メタデータ) (2025-05-30T17:36:20Z) - Demystifying Multilingual Chain-of-Thought in Process Reward Modeling [86.98098988779809]
プロセス報酬モデル(PRM)を多言語設定に拡張するという課題に対処する。
我々は、7つの言語にまたがるデータセット上で多言語PRMを訓練し、それを英語から翻訳する。
本結果は,学習言語数と英語データ量の両方に対する多言語PRMの感度を強調した。
論文 参考訳(メタデータ) (2025-02-18T09:11:44Z) - Delving Deeper into Cross-lingual Visual Question Answering [115.16614806717341]
標準学習装置に簡単な修正を加えることで、モノリンガル英語のパフォーマンスへの移行ギャップを大幅に減らすことができることを示す。
多言語マルチモーダル変換器の多言語間VQAを多言語間VQAで解析する。
論文 参考訳(メタデータ) (2022-02-15T18:22:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。