論文の概要: Multilingual Reasoning Gym: Multilingual Scaling of Procedural Reasoning Environments
- arxiv url: http://arxiv.org/abs/2603.10793v1
- Date: Wed, 11 Mar 2026 14:05:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.982833
- Title: Multilingual Reasoning Gym: Multilingual Scaling of Procedural Reasoning Environments
- Title(参考訳): 多言語推論ジャム:手続き的推論環境の多言語スケーリング
- Authors: Konstantin Dobler, Simon Lehnerer, Federico Scozzafava, Jonathan Janke, Mohamed Ali,
- Abstract要約: 本稿では,14言語にまたがる検証可能な推論問題を手続き的に生成する多言語推論ジャムを提案する。
94タスクのテンプレートを10言語でネイティブ話者検証とターゲットコードやテンプレート適応で翻訳し、言語的自然性を保証する。
- 参考スコア(独自算出の注目度): 2.1851076088498296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the Multilingual Reasoning Gym, an extension of Reasoning Gym (Stojanovski et al., 2025), that procedurally generates verifiable reasoning problems across 14 languages. We translate templates for 94 tasks with native-speaker validation in 10 languages and targeted code or template adaptations to ensure linguistic naturalness. The Multilingual Reasoning Gym preserves the core benefits of the procedural generation approach used in the original Reasoning Gym, such as virtually unlimited problem instance generation and adjustable difficulty, and remains directly usable for Reinforcement Learning from Verifiable Rewards and evaluation settings. Problems in the Multilingual Reasoning Gym are parallel across languages, enabling crosslingually parallel data generation at massive scale due to the procedural nature of the environments. We release our implementation to support research into multilingual reasoning models.
- Abstract(参考訳): 我々は、14言語にわたる検証可能な推論問題を手続き的に生成するReasoning Gym(Stojanovski et al , 2025)の拡張であるMultilingual Reasoning Gymを提案する。
94タスクのテンプレートを10言語でネイティブ話者検証とターゲットコードやテンプレート適応で翻訳し、言語的自然性を保証する。
Multilingual Reasoning Gymは、事実上無制限な問題インスタンス生成や調整可能な難易度など、オリジナルのReasoning Gymで使用される手続き生成アプローチの中核的な利点を保ち、検証されたリワードからの強化学習や評価設定に直接使用することができる。
マルチリンガル推論Gymの問題は言語間で並列であり、環境の手続き的性質のために大規模にクロスリンガル並列なデータ生成を可能にする。
我々は多言語推論モデルの研究を支援する実装をリリースする。
関連論文リスト
- Self-Improving Multilingual Long Reasoning via Translation-Reasoning Integrated Training [50.177839592528294]
長い推論モデルは多言語設定でしばしば苦労する。
翻訳学習を多言語推論に統合する自己改善フレームワークであるTRIT(Translation-Reasoning Integrated Training)を提案する。
論文 参考訳(メタデータ) (2026-02-05T17:55:09Z) - A Survey of Multilingual Reasoning in Language Models [30.140967158580892]
この調査は、言語モデルにおける多言語推論に関する、最初の詳細なレビューを提供する。
本稿では,LMにおける多言語推論のトレーニングに使用される標準データリソースの概要について述べる。
我々は,これらのベンチマークを用いて,様々な最先端手法とその性能を解析する。
論文 参考訳(メタデータ) (2025-02-13T16:25:16Z) - AdaMCoT: Rethinking Cross-Lingual Factual Reasoning through Adaptive Multilingual Chain-of-Thought [40.16140566668239]
AdaMCOTは多言語の事実推論を強化するフレームワークである。
AdaMCOTは、ターゲット言語応答を生成する前に、中間言語における思考プロセスを動的にルーティングする。
本評価は, 事実推論品質と言語間整合性の両方において, 大幅な改善を示すものである。
論文 参考訳(メタデータ) (2025-01-27T15:48:57Z) - No Train but Gain: Language Arithmetic for training-free Language Adapters enhancement [59.37775534633868]
本稿では,学習不要な後処理が可能な言語演算法を提案する。
提案手法の有効性を,MAD-Xに基づく言語間スキームの3つの下流課題に適用した。
論文 参考訳(メタデータ) (2024-04-24T08:52:40Z) - Language-Family Adapters for Low-Resource Multilingual Neural Machine
Translation [129.99918589405675]
自己超越で訓練された大規模多言語モデルは、幅広い自然言語処理タスクにおいて最先端の結果を達成する。
マルチリンガルな微調整は低リソース言語のパフォーマンスを向上させるが、モデル全体を変更する必要があるため、極めて高価である。
言語間移動を容易にするため,mBART-50上で言語ファミリーアダプタを訓練する。
論文 参考訳(メタデータ) (2022-09-30T05:02:42Z) - Analyzing the Mono- and Cross-Lingual Pretraining Dynamics of
Multilingual Language Models [73.11488464916668]
本研究では,多言語事前学習プロセスのダイナミクスについて検討する。
我々は,XLM-Rプレトレーニング全体から抽出したチェックポイントを,一連の言語的タスクを用いて探索する。
分析の結果,より複雑なものよりも低レベルな言語スキルが得られ,早期に高い言語性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-05-24T03:35:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。