論文の概要: Certified Self-Consistency: Statistical Guarantees and Test-Time Training for Reliable Reasoning in LLMs
- arxiv url: http://arxiv.org/abs/2510.17472v1
- Date: Mon, 20 Oct 2025 12:14:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.444468
- Title: Certified Self-Consistency: Statistical Guarantees and Test-Time Training for Reliable Reasoning in LLMs
- Title(参考訳): 自己整合性認定:LLMにおける信頼性推論のための統計的保証と試験時間トレーニング
- Authors: Paula Cordero-Encinar, Andrew B. Duncan,
- Abstract要約: 本稿では,大規模言語モデルにおける認証推論のための統一フレームワークを提案する。
多数決は自己整合性の統計的証明を提供することを示す。
さらに,TTRLのようなラベルなしのポストトレーニング手法が,回答分布を暗黙的に鋭くすることを示す。
- 参考スコア(独自算出の注目度): 4.829906774017035
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advances such as self-consistency and test-time reinforcement learning (TTRL) improve the reliability of large language models (LLMs) without additional supervision, yet their underlying mechanisms and statistical guarantees remain poorly understood. We present a unified framework for certifiable inference in LLMs, showing that majority voting provides a statistical certificate of self-consistency: under mild assumptions, the aggregated answer coincides with the mode of the model's terminal distribution with high probability. We derive finite-sample and anytime-valid concentration bounds that quantify this confidence, and introduce the Martingale Majority Certificate (MMC), a sequential stopping rule that adaptively determines when sufficient samples have been drawn. We further prove that label-free post-training methods such as TTRL implicitly sharpen the answer distribution by exponentially tilting it toward its mode, thereby reducing the number of samples required for certification. Building on this insight, we propose new post-training objectives that explicitly optimise this trade-off between sharpness and bias. Together, these results explain and connect two central test-time scaling strategies, self-consistency and TTRL, within a single statistical framework for label-free, certifiable reliability in reasoning LLMs.
- Abstract(参考訳): 自己整合性やテスト時強化学習(TTRL)といった最近の進歩は、大規模言語モデル(LLM)の信頼性を追加の監督なしに向上させているが、その基盤となるメカニズムや統計的保証はよく分かっていない。
本稿では, LLM において, 多数決投票が自己整合性の統計的証明を提供することを示すための統一的な枠組みを提案する。
我々は、この信頼度を定量化する有限サンプルおよび任意の時間価濃度境界を導出し、十分なサンプルが引かれたときに適応的に決定する逐次停止規則であるマルティンゴール行列証明(英語版)(MMC)を導入する。
さらに,TTRLのようなラベルのないポストトレーニング手法は,指数関数的にそのモードに傾けることで,応答分布を暗黙的に鋭くし,認証に必要なサンプル数を削減できることを示す。
この知見に基づいて、シャープネスとバイアスのトレードオフを明示的に最適化する、新たなトレーニング後の目標を提案する。
これらの結果は,自己整合性(self-consistency)とTTRL(TTRL)という2つの中心的なテストタイムスケーリング戦略を,ラベルフリーで証明可能なLLMの信頼性のための単一の統計的枠組みで説明・結合する。
関連論文リスト
- MaP: A Unified Framework for Reliable Evaluation of Pre-training Dynamics [72.00014675808228]
大規模言語モデルの不安定性評価プロセスは、真の学習力学を曖昧にする。
textbfMaPは、アンダーラインMergingアンダーラインとアンダーラインPass@kメトリックを統合するフレームワークです。
実験により、MaPはよりスムーズな性能曲線を示し、ラン間分散を低減し、より一貫性のあるランキングを保証する。
論文 参考訳(メタデータ) (2025-10-10T11:40:27Z) - Self-Filtered Distillation with LLMs-generated Trust Indicators for Reliable Patent Classification [29.336193842747832]
本稿では,特許分類に適したフレームワークであるSelf-Filtered Distillationを紹介する。
LLM生成の合理性は、地道的な監督よりも信頼の信号として扱う。
本手法は, ラベルに基づく学習, 従来の蒸留の精度, 安定性, 解釈可能性に優れる。
論文 参考訳(メタデータ) (2025-10-06T22:50:01Z) - FaithCoT-Bench: Benchmarking Instance-Level Faithfulness of Chain-of-Thought Reasoning [62.452350134196934]
FaithCoT-Benchは、インスタンスレベルのCoT不信検出のための統一ベンチマークである。
我々の枠組みは差別的な決定問題として不誠実検出を定式化している。
FaithCoT-Bench は LLM のより解釈可能で信頼性の高い推論に向けた将来の研究の基盤となる。
論文 参考訳(メタデータ) (2025-10-05T05:16:54Z) - Mind the Generation Process: Fine-Grained Confidence Estimation During LLM Generation [63.49409574310576]
大規模言語モデル(LLM)は自信過剰を示し、信頼度の高いスコアを誤った予測に割り当てる。
本研究では,テキスト生成中に高精度できめ細かな信頼スコアを提供する信頼度推定手法であるFineCEを紹介する。
論文で使用されたコードとすべてのベースラインはGitHubで公開されている。
論文 参考訳(メタデータ) (2025-08-16T13:29:35Z) - Conformal P-Value in Multiple-Choice Question Answering Tasks with Provable Risk Control [0.0]
本研究では,多目的質問応答(MCQA)における大規模言語モデル(LLM)の信頼性向上を目的とした,テスト強化型コンフォメーション予測(CP)フレームワークを提案する。
CPは予測セットに対して統計的に厳格な限界被覆保証を提供し、重要試験は確立された統計的厳密さを提供する。
本研究は,高度QAアプリケーションにおける信頼性の高いLCMデプロイメントの統計的枠組みを確立する。
論文 参考訳(メタデータ) (2025-08-07T16:46:47Z) - Conformal Sets in Multiple-Choice Question Answering under Black-Box Settings with Provable Coverage Guarantees [5.09580026885155]
ブラックボックス設定下での周波数に基づく不確実性定量化手法を提案する。
提案手法では,各入力に対するモデル出力分布の独立サンプリングを行う。
周波数に基づくPEは、正しい予測と誤予測の区別においてロジットに基づくPEよりも優れていることを示す。
論文 参考訳(メタデータ) (2025-08-07T16:22:49Z) - Conformal Calibration of Statistical Confidence Sets [1.8840155706520811]
本研究では,TRUSTとTRUST++という2つの新しい手法を導入する。
我々は,本手法が既存のアプローチ,特に小サンプル方式よりも優れていることを実証した。
論文 参考訳(メタデータ) (2024-11-28T20:45:59Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Conformal Prediction for Federated Uncertainty Quantification Under
Label Shift [57.54977668978613]
Federated Learning(FL)は、多くのクライアントが協力してモデルをトレーニングする機械学習フレームワークである。
我々は、量子回帰に基づく新しいコンフォメーション予測法を開発し、プライバシー制約を考慮した。
論文 参考訳(メタデータ) (2023-06-08T11:54:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。