論文の概要: Reasoning Planning for Language Models
- arxiv url: http://arxiv.org/abs/2511.00521v1
- Date: Sat, 01 Nov 2025 11:51:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.821132
- Title: Reasoning Planning for Language Models
- Title(参考訳): 言語モデルの推論計画
- Authors: Bao Nguyen, Hieu Trung Nguyen, Ruifeng She, Xiaojin Fu, Viet Anh Nguyen,
- Abstract要約: 本稿では,コントラスト学習フレームワークであるEPICを紹介する。
EPICは、モデル推論能力とクエリメソッド互換性の両方をキャプチャする共有表現空間を学習する。
多様な数学的推論タスクの実験は、EPICが常に最適な推論方法を選択することを示している。
- 参考スコア(独自算出の注目度): 23.519351730129426
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Selecting an appropriate reasoning method for a given query remains a key challenge in language model generation. Existing approaches typically generate multiple candidate responses and use an aggregation strategy to select the output answer, often assuming that more candidate answers yield higher accuracy. We revisit this assumption through a rigorous theoretical analysis, deriving accuracy bounds for standard aggregation methods under fixed generation distributions and candidate sizes. Building on these insights, we introduce EPIC, an Ensemble Planning with Contrastive learning framework to learn a shared representation space that captures both model reasoning abilities and query-method compatibility. EPIC incorporates our probability bounds as a regularizer in a utility-driven optimization that balances accuracy and computational cost. Experiments on diverse mathematical reasoning tasks show that EPIC consistently selects optimal reasoning methods, improving accuracy while reducing computational overhead. Our code can be found at https://github.com/nguyenngocbaocmt02/EPIC.
- Abstract(参考訳): 与えられたクエリに対して適切な推論方法を選択することは、言語モデル生成において重要な課題である。
既存のアプローチは通常、複数の候補応答を生成し、アグリゲーション戦略を使用して出力回答を選択し、より多くの候補答えがより高い精度をもたらすと仮定する。
我々は、この仮定を厳密な理論的解析を通じて再検討し、固定生成分布と候補サイズの下での標準集約手法の精度境界を導出する。
これらの知見に基づいて、モデル推論能力とクエリメソッドの互換性の両方をキャプチャする共有表現空間を学習するための、コントラスト学習フレームワークのEnsemble PlanningであるEPICを紹介します。
EPICは、精度と計算コストのバランスをとるユーティリティ駆動最適化において、我々の確率境界を正則化器として組み込んでいる。
多様な数学的推論タスクの実験は、EPICが常に最適な推論方法を選択し、計算オーバーヘッドを減らしながら精度を向上していることを示している。
私たちのコードはhttps://github.com/nguyenngocbaocmt02/EPICで確認できます。
関連論文リスト
- Adaptive Test-Time Reasoning via Reward-Guided Dual-Phase Search [62.1546099504045]
本稿では、推論を計画と実行に分離する二相テストタイムスケーリングフレームワークを提案する。
具体的には、推論軌跡を分解し、各フェーズの報酬モデルを構築し、探索者が個別に計画と実行を探索、実行できるようにする。
数学的推論とコード生成ベンチマークの両方の実験により、我々の手法は計算の冗長性を低減しつつ、常に精度を向上することを示した。
論文 参考訳(メタデータ) (2025-09-29T19:27:23Z) - CCQA: Generating Question from Solution Can Improve Inference-Time Reasoning in SLMs [14.97707719362011]
textbfQuestion textbfAnswering (CCQA)におけるtextbfCycle-textbf一貫性を提案する。
CCQAは、サイクル一貫性に着想を得て、各推論経路から質問を生成し、それぞれが元の質問と類似度で評価し、次に、最も類似度の高い候補解を最終応答として選択する。
CCQAは数学および常識推論ベンチマークにおいて8つのモデルで既存の最先端(SOTA)手法を一貫して上回っていることが確認された。
論文 参考訳(メタデータ) (2025-09-23T02:01:03Z) - THOR: Tool-Integrated Hierarchical Optimization via RL for Mathematical Reasoning [25.605096023894834]
大規模言語モデル (LLM) は数学的推論において顕著な進歩を遂げた。
最近の進歩にもかかわらず、既存の手法は3つの重要な課題に直面している。
我々はこれらの制限を克服するためにTHOR(Tool-Integrated Hierarchical Optimization via RL)を提案する。
提案手法は多種多様なモデルに対して強い一般化を示し,推論モデルと非推論モデルの両方で効果的に機能する。
論文 参考訳(メタデータ) (2025-09-17T07:16:12Z) - Conformal Prediction Beyond the Seen: A Missing Mass Perspective for Uncertainty Quantification in Generative Models [20.810300785340072]
Conformal Prediction with Query Oracle (CPQ)は、これらの目的間の最適な相互作用を特徴付けるフレームワークである。
本アルゴリズムは2つの基本原理に基づいて構築されている。一方は最適なクエリポリシーを規定し、他方はクエリされたサンプルから予測セットへの最適マッピングを定義する。
論文 参考訳(メタデータ) (2025-06-05T18:26:14Z) - PixelThink: Towards Efficient Chain-of-Pixel Reasoning [70.32510083790069]
PixelThinkは、外部から推定されるタスクの難しさと内部で測定されたモデルの不確実性を統合する、シンプルで効果的なスキームである。
シーンの複雑さと予測信頼度に応じて推論の長さを圧縮することを学ぶ。
実験により,提案手法は推論効率と全体セグメンテーション性能の両方を改善した。
論文 参考訳(メタデータ) (2025-05-29T17:55:49Z) - Sample, Don't Search: Rethinking Test-Time Alignment for Language Models [55.2480439325792]
新しいテストタイムアライメントアプローチであるQAlignを紹介します。
テスト時間計算をスケールする際、QAlignは各プロンプトの最適配向分布からのサンプリングに収束する。
マルコフ連鎖モンテカルロのテキスト生成における最近の進歩を取り入れることで、基礎となるモデルを変更したり、ロジットアクセスを必要とせずに、より良い整合出力を可能にする。
論文 参考訳(メタデータ) (2025-04-04T00:41:40Z) - FLARE: Faithful Logic-Aided Reasoning and Exploration [47.46564769245296]
タスク分解を用いて問題空間をトラバースする新しい手法を提案する。
我々はLarge Language Modelsを使ってソリューションを計画し、クエリを事実に軟式化し、論理プログラミングコードを使って述語する。
提案手法は,生成したコードに対する推論プロセスの忠実度を計算し,外部の解法に頼らずにマルチホップ探索のステップを解析する。
論文 参考訳(メタデータ) (2024-10-14T19:39:11Z) - DCR: Divide-and-Conquer Reasoning for Multi-choice Question Answering with LLMs [9.561022942046279]
大規模言語モデル(LLM)の推論能力を高めるため,DCR(Divide and Conquer Reasoning)を提案する。
まず、信頼性スコア(mathcalCS$)に基づいて質問を2つのサブセットに分類する。
特に,質問を信頼性スコア(mathcalCS$)に基づいて2つのサブセットに分類する。
論文 参考訳(メタデータ) (2024-01-10T14:38:46Z) - Obtaining Explainable Classification Models using Distributionally
Robust Optimization [12.511155426574563]
特徴値規則の集合を用いて構築した一般化線形モデルについて検討する。
ルールセットの間隔と予測精度の間には、固有のトレードオフが存在する。
我々はこれらの競合する要因に同時に対処するルールセットの集合を学習するための新しい定式化を提案する。
論文 参考訳(メタデータ) (2023-11-03T15:45:34Z) - RetICL: Sequential Retrieval of In-Context Examples with Reinforcement Learning [53.52699766206808]
In-Context Learning (RetICL) のための検索式を提案する。
RetICLは数学用語の問題解決と科学的質問応答のタスクに基づいて評価し,一貫した性能や一致,学習可能なベースラインを示す。
論文 参考訳(メタデータ) (2023-05-23T20:15:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。