論文の概要: Is continuous CoT better suited for multi-lingual reasoning?
- arxiv url: http://arxiv.org/abs/2603.08177v1
- Date: Mon, 09 Mar 2026 09:57:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.75042
- Title: Is continuous CoT better suited for multi-lingual reasoning?
- Title(参考訳): 継続的CoTは多言語推論に適しているか?
- Authors: Ali Hamza Bashir, Behzad Shomali, Markus Frey, Mehdi Ali, Rafet Sifa, David Berghaus,
- Abstract要約: 連続潜在空間における推論の実行がより堅牢な多言語機能に繋がるかどうかを考察する。
我々は,5言語にまたがる標準教師付き微調整と連続的連鎖(CODIフレームワークを使用)を比較した。
- 参考スコア(独自算出の注目度): 3.310732781690877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate whether performing reasoning in a continuous latent space leads to more robust multilingual capabilities. We compare Continuous Chain-of-Thought (using the CODI framework) against standard supervised fine-tuning across five typologically diverse languages: English, Chinese, German, French, and Urdu. Our experiments on GSM8k and CommonsenseQA demonstrate that continuous reasoning significantly outperforms explicit reasoning on low-resource languages, particularly in zero-shot settings where the target language was not seen during training. Additionally, this approach achieves extreme efficiency, compressing reasoning traces by approximately $29\times$ to $50\times$. These findings indicate that continuous latent representations naturally exhibit greater language invariance, offering a scalable solution for cross-lingual reasoning.
- Abstract(参考訳): 連続潜在空間における推論の実行がより堅牢な多言語機能に繋がるかどうかを考察する。
我々は,英語,中国語,ドイツ語,フランス語,ウルドゥー語という5言語にまたがる標準的な微調整と比較した。
GSM8kとCommonsenseQAに関する実験は、特に訓練中にターゲット言語が見られなかったゼロショット設定において、連続推論が低リソース言語での明示的推論を著しく上回ることを示した。
さらに、このアプローチは極端に効率が良く、推論トレースを約29\times$から50\times$に圧縮する。
これらの結果から, 連続潜時表現は言語不変性が大きく, 言語間推論にスケーラブルな解を提供することが明らかとなった。
関連論文リスト
- Large Reasoning Models Are (Not Yet) Multilingual Latent Reasoners [48.68444770923683]
大きな推論モデル(LRM)は、数学的推論タスクにおいて高い性能を達成する。
LRMは、これらのテキスト推論ステップを完了する前に、正しい答えに到達することが多い。
この現象は英語で研究されてきたが、多言語的行動はほとんど分かっていない。
論文 参考訳(メタデータ) (2026-01-06T13:20:17Z) - Why Do Multilingual Reasoning Gaps Emerge in Reasoning Language Models? [18.99223776816893]
推論言語モデル(RLM)は複雑な推論タスクにおいて高いパフォーマンスを達成するが、それでも多言語推論のギャップに悩まされている。
本稿では多言語推論のギャップが言語理解の失敗に大きく起因していることを示す。
本稿では,多言語入力を英語に翻訳する簡易かつ効果的な手法である選択翻訳を提案する。
論文 参考訳(メタデータ) (2025-10-31T08:17:59Z) - A Comprehensive Evaluation of Multilingual Chain-of-Thought Reasoning: Performance, Consistency, and Faithfulness Across Languages [48.68444770923683]
マルチリンガル・チェーン・オブ・ソート(CoT)推論の最初の包括的研究について述べる。
LRMがターゲット言語ですぐに考えることができる場合、言語コンプライアンス、解答精度、解答一貫性を計測する。
思考の痕跡の質と有効性は、素早い言語によって大きく異なることがわかった。
論文 参考訳(メタデータ) (2025-10-10T17:06:50Z) - Long Chain-of-Thought Reasoning Across Languages [14.79632337642471]
モデル開発の4つの重要な段階として,スケーリング,事前学習,ポストトレーニング,推論について検討する。
スケーリング推論モデルのサイズはEn-CoTの多言語タスク性能を改善するが、Target-CoTのパフォーマンスは遅れている。
英語以外の言語で高品質な推論トレースが不足していることを踏まえ,ポストトレーニングのための合成データキュレーション手法について検討する。
論文 参考訳(メタデータ) (2025-08-20T16:22:51Z) - Cross-lingual Collapse: How Language-Centric Foundation Models Shape Reasoning in Large Language Models [44.94287386776289]
textbfCross-lingual Collapseは、多言語言語モデルが支配的な事前学習言語に回帰する体系的なドリフトである。
実験の結果, (i)GRPOは事前学習言語の不均衡を急速に増幅し, わずか数百回の更新で低リソース言語が侵食され, (ii) 言語整合性報酬はこのドリフトを緩和するが, ほぼ5~10ppの精度の低下を犠牲にしていることがわかった。
論文 参考訳(メタデータ) (2025-06-06T08:08:48Z) - MMATH: A Multilingual Benchmark for Mathematical Reasoning [94.05289799605957]
MMATHは10言語にまたがる374の高品質な数学問題にまたがる多言語複雑推論のためのベンチマークである。
我々は、DeepSeek R1のような先進モデルでさえ、言語間での大幅な性能格差を示し、意図しない言語において重要な目標外問題発生応答に悩まされていることを観察する。
本研究は,大規模言語モデルの多言語推論能力向上のための新たな洞察と実践的戦略を提供する。
論文 参考訳(メタデータ) (2025-05-25T12:47:39Z) - Language Matters: How Do Multilingual Input and Reasoning Paths Affect Large Reasoning Models? [59.970391602080205]
多言語トレーニングにも拘わらず、LRMはテスト時に高リソース言語での推論をデフォルトとする傾向にある。
文化的推論は、推論タスクのパフォーマンスを低下させるが、文化的なタスクに恩恵を与える一方、安全性評価は言語固有の振る舞いを示す。
論文 参考訳(メタデータ) (2025-05-23T02:46:18Z) - Crosslingual Reasoning through Test-Time Scaling [51.55526326294275]
英語中心の推論言語モデル(RLM)に対する推論計算のスケールアップは、多くの言語における多言語数学的推論を改善する。
英語中心の RLM の CoT は自然に英語が主流であるが、引用された非英語入力を推論するための引用と思考のパターンは一貫して従っている。
我々は、ドメイン外推論の一般化、特にSTEMから文化常識の知識まで、英語においても、貧弱なドメイン外推論の一般化を観察する。
論文 参考訳(メタデータ) (2025-05-08T16:50:06Z) - Language Models are Multilingual Chain-of-Thought Reasoners [83.37148309771378]
本稿では,250の小学校数学問題を10の類型的多言語に手動で翻訳することで,多言語学級数学のベンチマークを導入する。
MGSM問題をチェーン・オブ・ソートにより解く能力は,モデルスケールの増大とともに出現する。
言語モデルの多言語推論能力は他のタスクにも及んでいることを示す。
論文 参考訳(メタデータ) (2022-10-06T17:03:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。