論文の概要: Improving reasoning at inference time via uncertainty minimisation
- arxiv url: http://arxiv.org/abs/2603.07159v1
- Date: Sat, 07 Mar 2026 11:39:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:13.906286
- Title: Improving reasoning at inference time via uncertainty minimisation
- Title(参考訳): 不確実性最小化による推論時間における推論の改善
- Authors: Nicolas Legrand, Kenneth Enevoldsen, Márton Kardos, Kristoffer Nielbo,
- Abstract要約: 本稿では,不確実性を最小化するための原則的戦略を提案する。
提案手法は,各推論ステップにおいて,モデルの自己確実性を最大化する継続を選択する。
初期段階に適用した自己確実性最大化は,性能向上のほとんどを説明することができることを示す。
- 参考スコア(独自算出の注目度): 1.9145422469692004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) now exhibit strong multi-step reasoning abilities, but existing inference-time scaling methods remain computationally expensive, often relying on extensive sampling or external evaluators. We propose a principled strategy that frames reasoning as uncertainty minimisation and operates at the level of individual thoughts rather than tokens. Our method selects, at each reasoning step, the continuation that maximizes the model's self-certainty, a metric computed from its internal predictive distribution. This approach achieves significant improvement with a small number of samples, relies exclusively on model-internal signals, and applies to open-ended questions as opposed to methods like majority voting. Experiments on MATH500 and GSM8K across multiple model sizes demonstrate that thought-level self-certainty maximization consistently outperforms greedy decoding and matches or exceeds self-consistency under comparable token budgets. Cross-linguistic evaluations further indicate that the method transfers robustly beyond high-resource languages. Furthermore, analysis of self-certainty dynamics reveals that correct reasoning trajectories converge early to stable paths, suggesting that early decisions, likely associated with the planning of the reasoning process, are predictive of final accuracy. Building on this result, we show that self-certainty maximisation applied to the early steps can explain most of the performance gain and provide a simple yet efficient inference-time scaling method.
- Abstract(参考訳): 大規模言語モデル(LLM)は現在、強力な多段階推論能力を持っているが、既存の推論時間スケーリング手法は計算コストが高く、多くの場合、広範囲なサンプリングや外部評価に頼っている。
本稿では,不確実性の最小化として推論を体系化し,トークンよりも個人的思考のレベルで運用する原則的戦略を提案する。
提案手法は,各推論ステップにおいて,モデル内部の予測分布から計算した指標である自己確かさを最大化する継続を選択する。
このアプローチは少数のサンプルで大幅に改善され、モデル内部の信号にのみ依存し、多数決のような手法とは対照的にオープンな質問に適用される。
複数のモデルサイズにわたるMATH500とGSM8Kの実験では、思考レベルの自己確実性最大化は、フレディ復号化よりも優れており、同等のトークン予算の下で自己整合性を超えている。
クロス言語的評価は、この手法が高資源言語を超えて頑健に転送されることを示唆している。
さらに、自己確実性力学の解析により、正しい推論軌道が早期に安定な経路に収束していることが明らかとなり、推論過程の計画に関係している可能性が高い早期決定が最終的な正確性を予測することが示唆された。
この結果に基づいて、初期段階に適用された自己確実性最大化は、ほとんどの性能向上を説明でき、単純で効率的な推論時間スケーリング方法を提供する。
関連論文リスト
- ReasonBENCH: Benchmarking the (In)Stability of LLM Reasoning [2.1461777157838724]
ReasonBENCHは,大規模言語モデル(LLM)推論における基盤不安定性を定量化する最初のベンチマークである。
異なる領域からのタスク全体で、推論戦略とモデルの大部分は高い不安定性を示す。
我々はさらに、解答率と安定性のトレードオフに対するプロンプト、モデル家族、スケールの影響を解析する。
論文 参考訳(メタデータ) (2025-12-08T18:26:58Z) - Tracing the Traces: Latent Temporal Signals for Efficient and Accurate Reasoning [21.58053831545995]
モデルの内部表現の時間的進化を特徴付ける潜在トラジェクトリ信号を導入する。
これらの信号は、クロス層メトリクスと出力ベースの信頼度の両方よりも、解の精度をより確実に予測できることが示される。
論文 参考訳(メタデータ) (2025-10-12T08:03:56Z) - Does More Inference-Time Compute Really Help Robustness? [50.47666612618054]
小規模なオープンソースモデルは、推論時間スケーリングの恩恵を受けることができることを示す。
我々は、逆スケーリング法として、直感的に動機付けられ、実証的に検証された重要なセキュリティリスクを特定します。
私たちは、セキュリティに敏感で現実世界のアプリケーションに推論タイムのスケーリングを適用する前に、実践者にこれらの微妙なトレードオフを慎重に検討するよう促します。
論文 参考訳(メタデータ) (2025-07-21T18:08:38Z) - Probabilistic Optimality for Inference-time Scaling [8.126757296203957]
大規模言語モデル(LLM)の推論性能を向上させるための強力な手法として、推論時間スケーリングが登場した。
本稿では,並列サンプルが独立かつ同一分布であるという仮定の下で,推論時間スケーリングの最適性を定式化する確率的フレームワークを提案する。
サンプル応答の最適数を動的に決定する実用的なアルゴリズムである OptScale を開発した。
論文 参考訳(メタデータ) (2025-06-27T16:44:11Z) - A Principled Approach to Randomized Selection under Uncertainty: Applications to Peer Review and Grant Funding [61.86327960322782]
本稿では,各項目の品質の間隔推定に基づくランダム化意思決定の枠組みを提案する。
最適化に基づく最適化手法であるMERITを導入する。
MERITが既存のアプローチで保証されていない望ましい公理特性を満たすことを証明している。
論文 参考訳(メタデータ) (2025-06-23T19:59:30Z) - Entropy-Gated Branching for Efficient Test-Time Reasoning [21.810952984561116]
テスト時間計算法は、大規模言語モデル(LLM)の推論能力と問題解決精度を大幅に向上させることができる。
本稿では,高不確実性ステップのみに分岐するEntropy-Gated Branching (EGB)を提案する。
数学と財務の推論ベンチマークでは、EGBは標準的な推論よりも22.6%精度を向上し、数学のベンチマークで31%-75%高速に動作している。
論文 参考訳(メタデータ) (2025-03-27T20:18:22Z) - Scalable Best-of-N Selection for Large Language Models via Self-Certainty [75.1351701045874]
Best-of-N selectionは、Large Language Models(LLMs)の推論性能を改善するための重要なテクニックである。
本稿では, LLM出力の固有確率分布を利用して, 外部報酬モデルを必要としない応答品質を推定する, 新規で効率的な指標である自己確実性を提案する。
本研究は, LLM推論能力を向上させるための実用的で効率的な方法として, 自己確実性を確立した。
論文 参考訳(メタデータ) (2025-02-25T19:08:07Z) - BERT Loses Patience: Fast and Robust Inference with Early Exit [91.26199404912019]
本稿では,事前学習した言語モデルの効率性と堅牢性を向上させるためのプラグイン・アンド・プレイ手法として,Patience-based Early Exitを提案する。
提案手法では,モデルを少ないレイヤで予測できるため,推論効率が向上する。
論文 参考訳(メタデータ) (2020-06-07T13:38:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。