論文の概要: Adaptive Problem Generation via Symbolic Representations
- arxiv url: http://arxiv.org/abs/2602.19187v1
- Date: Sun, 22 Feb 2026 13:33:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.521789
- Title: Adaptive Problem Generation via Symbolic Representations
- Title(参考訳): 記号表現による適応的問題生成
- Authors: Teresa Yeo, Myeongho Jeon, Dulaj Weerakoon, Rui Qiao, Alok Prakash, Armando Solar-Lezama, Archan Misra,
- Abstract要約: 本稿では,数学的なタスクにおいて,小さなオープンウェイト言語モデルを改善するために,検証可能な報酬を用いた強化学習のためのトレーニングデータを生成する方法を提案する。
シンボル変数と制約の集合として各問題を表現し、シンボル問題空間で修正を行う。
この表現は、問題構造を正確に制御し、基底構造解の自動生成を可能にし、数学的推論を言語的実現から切り離す。
- 参考スコア(独自算出の注目度): 16.05958546676182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a method for generating training data for reinforcement learning with verifiable rewards to improve small open-weights language models on mathematical tasks. Existing data generation approaches rely on open-loop pipelines and fixed modifications that do not adapt to the model's capabilities. Furthermore, they typically operate directly on word problems, limiting control over problem structure. To address this, we perform modifications in a symbolic problem space, representing each problem as a set of symbolic variables and constraints (e.g., via algebraic frameworks such as SymPy or SMT formulations). This representation enables precise control over problem structure, automatic generation of ground-truth solutions, and decouples mathematical reasoning from linguistic realization. We also show that this results in more diverse generations. To adapt the problem difficulty to the model, we introduce a closed-loop framework that learns modification strategies through prompt optimization in symbolic space. Experimental results demonstrate that both adaptive problem generation and symbolic representation modifications contribute to improving the model's math solving ability.
- Abstract(参考訳): 本稿では,数学的なタスクにおいて,小さなオープンウェイト言語モデルを改善するために,検証可能な報酬を用いた強化学習のためのトレーニングデータを生成する方法を提案する。
既存のデータ生成アプローチは、モデルの性能に適応しないオープンループパイプラインと固定された修正に依存している。
さらに、それらは通常、単語の問題を直接操作し、問題構造に対する制御を制限する。
この問題に対処するために、各問題を記号変数と制約の集合として表現する(例えば、SymPyやSMTの定式化のような代数的フレームワークを通して)。
この表現は、問題構造を正確に制御し、基底構造解の自動生成を可能にし、数学的推論を言語的実現から切り離す。
結果として、より多様な世代が生まれることも示しています。
モデルに問題を適応させるために,シンボル空間における迅速な最適化を通じて修正戦略を学習するクローズドループフレームワークを導入する。
実験結果から,適応的な問題生成と記号表現の修正の両方が,モデルの数学的解法能力の向上に寄与することが示された。
関連論文リスト
- DéjàQ: Open-Ended Evolution of Diverse, Learnable and Verifiable Problems [19.381443841718596]
DéjQは、モデルトレーニングと並行して、多様な数学的問題の集合を進化させるフレームワークである。
この進化過程は訓練を通じてモデルの能力に適応し、学習可能性に関する問題を最適化する。
このモデルが新規で有意義な問題を生じさせ,これらのLSMによる突然変異がRLトレーニングを改善することが判明した。
論文 参考訳(メタデータ) (2026-01-05T09:27:49Z) - Learning to Pose Problems: Reasoning-Driven and Solver-Adaptive Data Synthesis for Large Reasoning Models [54.29243291958429]
本研究は, 生成前に問題方向を明示的に計画する問題生成装置の開発である。
我々は,合成問題に対する解法者のフィードバックを報奨信号として扱い,生成元が難易度を調整できるようにする。
本手法は平均2.5%の改善を実現し,言語モデルと視覚言語モデルの両方に一般化する。
論文 参考訳(メタデータ) (2025-11-13T03:08:51Z) - Self-Improving Transformers Overcome Easy-to-Hard and Length Generalization Challenges [15.975023196507841]
大規模言語モデルは、しばしば、トレーニング分布を超えて、長さの一般化と複雑な問題インスタンスの解決に苦労する。
モデルが自身のソリューションから反復的に生成し、学習する自己改善アプローチを提案する。
本研究は,制御された弱強曲線がモデル論理外挿法を体系的に教える方法を示した。
論文 参考訳(メタデータ) (2025-02-03T18:45:22Z) - Bridging Visualization and Optimization: Multimodal Large Language Models on Graph-Structured Combinatorial Optimization [56.17811386955609]
グラフ構造上の課題は、その非線形で複雑な性質のために本質的に困難である。
本研究では,高次構造的特徴を正確に保存するために,グラフを画像に変換する手法を提案する。
マルチモーダルな大規模言語モデルと単純な検索手法を組み合わせた革新的なパラダイムを生かし、新しい効果的なフレームワークを開発することを目指す。
論文 参考訳(メタデータ) (2025-01-21T08:28:10Z) - Shape Arithmetic Expressions: Advancing Scientific Discovery Beyond Closed-Form Equations [56.78271181959529]
GAM(Generalized Additive Models)は、変数とターゲットの間の非線形関係をキャプチャできるが、複雑な特徴相互作用をキャプチャすることはできない。
本稿では,GAMのフレキシブルな形状関数と,数学的表現に見られる複雑な特徴相互作用を融合させる形状表現算術(SHARE)を提案する。
また、標準制約を超えた表現の透明性を保証するSHAREを構築するための一連のルールを設計する。
論文 参考訳(メタデータ) (2024-04-15T13:44:01Z) - A Causal Framework to Quantify the Robustness of Mathematical Reasoning
with Language Models [81.15974174627785]
入力空間における直接的介入に対する頑健さと感度の観点から言語モデルの振舞いについて検討する。
しかし, GPT-3 Davinciモデル(175B)は, 他のGPTモデルと比較して, 頑健さと感度の両面で劇的な改善を実現している。
論文 参考訳(メタデータ) (2022-10-21T15:12:37Z) - SymbolicGPT: A Generative Transformer Model for Symbolic Regression [3.685455441300801]
シンボル回帰のための新しいトランスフォーマーベース言語モデルであるSybolicGPTを提案する。
本モデルでは,精度,実行時間,データ効率に関して,競合モデルと比較して高い性能を示す。
論文 参考訳(メタデータ) (2021-06-27T03:26:35Z) - Sufficiently Accurate Model Learning for Planning [119.80502738709937]
本稿では,制約付きSufficiently Accurateモデル学習手法を提案する。
これはそのような問題の例を示し、いくつかの近似解がいかに近いかという定理を提示する。
近似解の質は、関数のパラメータ化、損失と制約関数の滑らかさ、モデル学習におけるサンプルの数に依存する。
論文 参考訳(メタデータ) (2021-02-11T16:27:31Z) - SMART: A Situation Model for Algebra Story Problems via Attributed
Grammar [74.1315776256292]
本稿では, 問題解決における人間の精神状態を表現する心理学研究から生まれた, emphsituation modelの概念を紹介する。
提案モデルでは,より優れた解釈性を保ちながら,従来のすべてのニューラルソルバを大きなマージンで上回る結果が得られた。
論文 参考訳(メタデータ) (2020-12-27T21:03:40Z) - Joint learning of variational representations and solvers for inverse
problems with partially-observed data [13.984814587222811]
本稿では,教師付き環境において,逆問題に対する実際の変分フレームワークを学習するためのエンドツーエンドフレームワークを設計する。
変動コストと勾配に基づく解法はどちらも、後者の自動微分を用いたニューラルネットワークとして記述される。
これにより、データ駆動による変分モデルの発見につながる。
論文 参考訳(メタデータ) (2020-06-05T19:53:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。