論文の概要: Stable but Miscalibrated: A Kantian View on Overconfidence from Filters to Large Language Models
- arxiv url: http://arxiv.org/abs/2510.14925v2
- Date: Mon, 03 Nov 2025 12:53:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-04 16:14:22.32196
- Title: Stable but Miscalibrated: A Kantian View on Overconfidence from Filters to Large Language Models
- Title(参考訳): 安定だがミススカラー化: フィルタから大規模言語モデルへの過信に関するカント的考察
- Authors: Akira Okutomi,
- Abstract要約: 我々は、カントの純粋推論批判をフィードバック安定性の理論として解釈し、推論を可能な経験の範囲内で保持する規制機関としての理由を考察する。
我々は、スペクトルマージン、条件付け、時間感度、革新増幅を組み合わせた複合不安定指数(H-Risk)を用いて、この直観を定式化する。
内部の脆さと誤校正・幻覚(癒合)の予備的相関を観察し,軽度の批判的プロンプトが小さめの検査で緩やかに校正を改善したり悪化させたりすることを発見した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We reinterpret Kant's Critique of Pure Reason as a theory of feedback stability, viewing reason as a regulator that keeps inference within the bounds of possible experience. We formalize this intuition via a composite instability index (H-Risk) combining spectral margin, conditioning, temporal sensitivity, and innovation amplification. In linear-Gaussian simulations, higher H-Risk predicts overconfident errors even under formal stability, revealing a gap between nominal and epistemic stability. Extending to large language models (LLMs), we observe preliminary correlations between internal fragility and miscalibration or hallucination (confabulation), and find that lightweight critique prompts may modestly improve or worsen calibration in small-scale tests. These results suggest a structural bridge between Kantian self-limitation and feedback control, offering a principled lens to diagnose and potentially mitigate overconfidence in reasoning systems.
- Abstract(参考訳): 我々は、カントの純粋推論批判をフィードバック安定性の理論として解釈し、推論を可能な経験の範囲内で保持する規制機関としての理由を考察する。
我々は、スペクトルマージン、条件付け、時間感度、革新増幅を組み合わせた複合不安定指数(H-Risk)を用いて、この直観を定式化する。
線形ガウスシミュレーションでは、高次H-リスクは形式的安定性の下でも過信ミスを予測し、名目安定性とてんかん安定性のギャップが明らかになる。
大規模言語モデル (LLMs) に拡張し, 内部の脆弱性と誤校正・幻覚(癒合)の予備的相関を観察し, 軽量な批判的プロンプトは, 小型試験におけるキャリブレーションを緩やかに改善したり, 悪化させる可能性があることを見出した。
これらの結果は、カンチアン自己昇華とフィードバック制御の間の構造的橋渡しを示唆し、推論系における過信を診断し、潜在的に緩和する原理的なレンズを提供する。
関連論文リスト
- Drift No More? Context Equilibria in Multi-Turn LLM Interactions [58.69551510148673]
コンテキストドリフト(Contexts drift)とは、ターン間のゴール一貫性のある振る舞いからモデルが出力する出力の段階的なばらつきである。
シングルターンエラーとは異なり、ドリフトは時間的に展開し、静的な評価指標では捉えにくい。
マルチターンドリフトは、避けられない崩壊というよりも、制御可能な平衡現象として理解できることを示す。
論文 参考訳(メタデータ) (2025-10-09T04:48:49Z) - Theoretical Bounds for Stable In-Context Learning [0.0]
In-context Learning (ICL) は柔軟性があるが、その信頼性は迅速な長さに敏感である。
本稿では、最小数の実証とICL安定性を結びつける非漸近的下界を確立する。
本稿では,1ショットキャリブレーションを施した2段階観測可能推定器を提案する。
論文 参考訳(メタデータ) (2025-09-25T02:25:05Z) - Trusted Uncertainty in Large Language Models: A Unified Framework for Confidence Calibration and Risk-Controlled Refusal [31.458406135473805]
異種不確実性証拠を正当性の校正確率に変換する統一フレームワークUniCRを提案する。
UniCRは、温度スケーリングと適切なスコアリングを備えた軽量なキャリブレーションヘッドを学習する。
ショートフォームQA、実行テスト付きコード生成、検索強化ロングフォームQAの実験は、キャリブレーションメトリクスの一貫性のある改善を示している。
論文 参考訳(メタデータ) (2025-09-01T13:14:58Z) - Seeing is Believing? Mitigating OCR Hallucinations in Multimodal Large Language Models [24.363156120809546]
劣化文書理解におけるOCR幻覚評価のための最初のベンチマークであるKIE-HVQAを提案する。
このデータセットには、IDカードと請求書にまたがるテストサンプルが含まれており、OCR信頼性のための実世界の劣化をシミュレートしている。
Qwen2.5-VL 実験により,GPT-4o に対して 7B-パラメータモデルでは幻覚のない精度が 22% 向上していることが示された。
論文 参考訳(メタデータ) (2025-06-25T06:44:07Z) - Retrieval is Not Enough: Enhancing RAG Reasoning through Test-Time Critique and Optimization [58.390885294401066]
Retrieval-augmented Generation (RAG) は知識基底型大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
RAGパイプラインは、モデル推論が得られた証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
批判駆動アライメント(CDA)に基づく新しい反復的枠組みであるAlignRAGを提案する。
AlignRAG-autoは、動的に洗練を終了し、批判的な反復回数を事前に指定する必要がなくなる自律的な変種である。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - Bridging Internal Probability and Self-Consistency for Effective and Efficient LLM Reasoning [53.25336975467293]
パープレキシティや自己整合性などの手法の第一理論誤差分解解析について述べる。
パープレキシティ法は、適切な整合関数が存在しないため、かなりのモデル誤差に悩まされる。
本稿では、自己整合性とパープレキシティを統合したReasoning-Pruning Perplexity Consistency(RPC)と、低確率推論経路を排除したReasoning Pruningを提案する。
論文 参考訳(メタデータ) (2025-02-01T18:09:49Z) - Sycophancy in Vision-Language Models: A Systematic Analysis and an Inference-Time Mitigation Framework [18.54098084470481]
本稿では,視覚言語ベンチマーク間のサイコフィナンシーを分析し,推論時間緩和フレームワークを提案する。
我々のフレームワークは、中立なプロンプトの性能を維持しながら、評価されたすべてのモデルでサイコフィナンシーを効果的に軽減します。
論文 参考訳(メタデータ) (2024-08-21T01:03:21Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。