論文の概要: ProofSketch: Efficient Verified Reasoning for Large Language Models
- arxiv url: http://arxiv.org/abs/2510.24811v1
- Date: Tue, 28 Oct 2025 06:34:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:44.588849
- Title: ProofSketch: Efficient Verified Reasoning for Large Language Models
- Title(参考訳): ProofSketch: 大規模言語モデルのための効率的な検証済み推論
- Authors: Disha Sheshanarayana, Tanishka Magar,
- Abstract要約: 本稿では,記号的クロージャ,語彙的検証,適応的スケッチ生成を統合した検証誘導推論フレームワークProofSketchを提案する。
実験の結果,ProofSketchはトークンの使用率を一定に抑えつつ精度を向上し,このアプローチが効率的かつ信頼性の高い推論に有望な経路を提供することを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reasoning methods such as chain-of-thought prompting and self-consistency have shown immense potential to improve the accuracy of large language models across various reasoning tasks. However such methods involve generation of lengthy reasoning chains, which substantially increases token consumption, computational cost, and latency. To address this inefficiency, we propose ProofSketch, a verification-guided reasoning framework that integrates symbolic closure computation, lexicographic verification and adaptive sketch generation. Our experiments show that ProofSketch consistently reduces token usage while improving accuracy, demonstrating that this approach offers a promising path for efficient and trustworthy reasoning.
- Abstract(参考訳): チェーン・オブ・ソート・プロンプトや自己整合性といった推論手法は、様々な推論タスクにおいて大きな言語モデルの精度を向上させる大きな可能性を示している。
しかし、このような手法には、トークン消費、計算コスト、遅延を大幅に増大させる長大な推論チェーンの生成が含まれる。
この非効率性に対処するために,記号的クロージャ計算,語彙的検証,適応スケッチ生成を統合した検証誘導推論フレームワークProofSketchを提案する。
実験の結果,ProofSketchはトークンの使用率を一定に抑えつつ精度を向上し,このアプローチが効率的かつ信頼性の高い推論に有望な経路を提供することを示した。
関連論文リスト
- Fast Thinking for Large Language Models [67.7238685892317]
我々は、訓練中にのみ簡潔なCoTスケッチを使用して個別戦略事前のコードブックを学習するフレームワークであるLatent Codebooks for Fast Thinkingを紹介した。
推論では、コードブックから抽出した少数の連続的思考スイッチのモデル条件を1パスにすることで、明確な推論トークンを生成することなく、戦略レベルのガイダンスを可能にする。
論文 参考訳(メタデータ) (2025-09-28T04:19:48Z) - Think or Not? Exploring Thinking Efficiency in Large Reasoning Models via an Information-Theoretic Lens [51.90059610606049]
本稿では,情報理論レンズによる推論プロセスの効率を再考する。
本稿では,理想的な推論経路と段階的な情報提供から分岐を定量化するために,InfoBias と InfoGain という2つの指標を提案する。
これらの知見に触発されて,信頼度が十分に高ければ推論を動的に停止する,エントロピーに基づく適応的思考戦略を導入する。
論文 参考訳(メタデータ) (2025-05-23T13:38:56Z) - Fractured Chain-of-Thought Reasoning [61.647243580650446]
完全CoTと解のみのサンプリングを補間する統合推論時間戦略であるフラクチャードサンプリングを導入する。
フラクチャードサンプリングは、Pass@kとトークンの予算に対して、急激なログ線形スケーリングゲインをもたらすため、優れた精度とコストのトレードオフを一貫して達成できることを示す。
論文 参考訳(メタデータ) (2025-05-19T11:30:41Z) - Sketch-of-Thought: Efficient LLM Reasoning with Adaptive Cognitive-Inspired Sketching [64.74765550805024]
Chain-of-Thoughtはステップバイステップの問題解決を促すが、中間出力の過剰な冗長性を犠牲にすることが多い。
我々は,認知にインスパイアされた推論パラダイムを言語制約と統合する促進フレームワークであるSketch-of-Thought(SoT)を提案する。
SoTはトークンを最大84%削減し、18の推論データセットで最小限の精度ロスを達成している。
論文 参考訳(メタデータ) (2025-03-07T06:57:17Z) - Efficient Reasoning with Hidden Thinking [48.96945580741641]
CoT(Chain-of-Thought)推論は、複雑な問題解決能力を改善するための強力なフレームワークになっています。
我々は,隠された潜在空間におけるCoTの推論を利用した効率的な推論フレームワークであるtextbfHeima$(隠されたラマとして)を提案する。
ハイマモデルは、ゼロショットタスクの精度を維持しつつ、より高い生成効率を達成する。
論文 参考訳(メタデータ) (2025-01-31T15:10:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。