論文の概要: Solomonoff-Inspired Hypothesis Ranking with LLMs for Prediction Under Uncertainty
- arxiv url: http://arxiv.org/abs/2512.17145v2
- Date: Mon, 22 Dec 2025 02:19:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 14:49:56.321135
- Title: Solomonoff-Inspired Hypothesis Ranking with LLMs for Prediction Under Uncertainty
- Title(参考訳): 不確かさ下での予測のためのLCMを用いたソロモノフ誘発仮説のランク付け
- Authors: Josh Barber, Rourke Young, Cameron Coombe, Will Browne,
- Abstract要約: そこで本研究では,LLM生成仮説を単純かつ適応的に重み付けするソロモノフ法を提案する。
本手法はセルごとの予測のためにソロモノフ重み付き混合物を作製し, 保守的で不確実性を考慮した出力を得る。
タスク全体では、不確実性の下での解釈可能で信頼性の高いマルチハイプセシス推論のためのアルゴリズム情報理論の事前値が強調される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reasoning under uncertainty is a key challenge in AI, especially for real-world tasks, where problems with sparse data demands systematic generalisation. Existing approaches struggle to balance accuracy and simplicity when evaluating multiple candidate solutions. We propose a Solomonoff-inspired method that weights LLM-generated hypotheses by simplicity and predictive fit. Applied to benchmark (Mini-ARC) tasks, our method produces Solomonoff-weighted mixtures for per-cell predictions, yielding conservative, uncertainty-aware outputs even when hypotheses are noisy or partially incorrect. Compared to Bayesian Model Averaging (BMA), Solomonoff scoring spreads probability more evenly across competing hypotheses, while BMA concentrates weight on the most likely but potentially flawed candidates. Across tasks, this highlights the value of algorithmic information-theoretic priors for interpretable, reliable multi-hypothesis reasoning under uncertainty.
- Abstract(参考訳): 不確実性の下での推論は、特にスパースデータの問題が体系的な一般化を要求する現実世界のタスクにおいて、AIにおいて重要な課題である。
既存のアプローチは、複数の候補ソリューションを評価する際に、正確性と単純さのバランスをとるのに苦労している。
本稿では,LLM生成仮説を単純かつ予測的適合性で重み付けするソロモノフ法を提案する。
ベンチマーク(Mini-ARC)タスクに適用し,セルごとの予測のためにソロモノフ重み付き混合体を生成し,仮説がノイズであったり,一部誤りであったりしても,保守的で不確実性を考慮した出力が得られる。
ベイズモデル平均化 (BMA) と比較すると、ソロモノフのスコアは競合する仮説に対してより均等に確率を広げる一方、BMAは最も潜在的に欠陥のある候補に重みを集中する。
タスク全体では、不確実性の下での解釈可能で信頼性の高いマルチハイプセシス推論のためのアルゴリズム情報理論の事前値が強調される。
関連論文リスト
- The Illusion of Certainty: Uncertainty quantification for LLMs fails under ambiguity [48.899855816199484]
そこで本研究では,第1の曖昧な質問応答(QA)データセットであるMAQA*とAmbigQA*を紹介する。
予測分布とアンサンブルに基づく推定器は、あいまいさの下では基本的に限定的であることを示す。
論文 参考訳(メタデータ) (2025-11-06T14:46:35Z) - Uncertainty as Feature Gaps: Epistemic Uncertainty Quantification of LLMs in Contextual Question-Answering [29.4458902836278]
本稿では,与えられたモデルの予測分布と未知の真の分布との相互エントロピーとして定義されたタスクに依存しないトークンレベルの不確実性尺度を提案する。
我々は不確実性の上限を導出し、与えられたモデルの隠された表現において意味的特徴ギャップとして解釈できることを示す。
この一般的なフレームワークを文脈的QAタスクに適用し、文脈信頼、文脈理解、誠実さの3つの特徴がこのギャップを近似していると仮定する。
論文 参考訳(メタデータ) (2025-10-03T02:09:25Z) - UncertainSAM: Fast and Efficient Uncertainty Quantification of the Segment Anything Model [19.8785302359805]
本稿では,ベイズエントロピーの定式化に基づく理論的動機付けの不確実性定量化モデルを提案する。
この定式化を利用して、軽量なポストホックUQ手法USAMを訓練する。
提案した決定論的USAMは,SA-V,MOSE,ADE20k,DAVIS,COCOデータセットに優れた予測能力を示す。
論文 参考訳(メタデータ) (2025-05-08T08:36:23Z) - Stein's unbiased risk estimate and Hyvärinen's score matching [9.035498732406039]
経験的ベイズでは、主なアプローチは非パラメトリック最大推定(NPMLE)である。
私たちの設定では、Hyv"arinen氏の暗黙のSMは、統計学からの別の古典的アイデアと等価です。
論文 参考訳(メタデータ) (2025-02-27T14:15:05Z) - PredictaBoard: Benchmarking LLM Score Predictability [50.47497036981544]
大きな言語モデル(LLM)は予測不能に失敗することが多い。
これは、安全なデプロイメントを保証する上で、大きな課題となる。
PredictaBoardは,新しいベンチマークフレームワークである。
論文 参考訳(メタデータ) (2025-02-20T10:52:38Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Amortized Conditional Normalized Maximum Likelihood: Reliable Out of
Distribution Uncertainty Estimation [99.92568326314667]
本研究では,不確実性推定のための拡張性のある汎用的アプローチとして,償却条件正規化最大値(ACNML)法を提案する。
提案アルゴリズムは条件付き正規化最大度(CNML)符号化方式に基づいており、最小記述長の原理に従って最小値の最適特性を持つ。
我々は、ACNMLが、分布外入力のキャリブレーションの観点から、不確実性推定のための多くの手法と好意的に比較することを示した。
論文 参考訳(メタデータ) (2020-11-05T08:04:34Z) - Thompson Sampling Algorithms for Mean-Variance Bandits [97.43678751629189]
我々は平均分散MABのためのトンプソンサンプリング型アルゴリズムを開発した。
我々はまた、ガウシアンとベルヌーイの盗賊に対する包括的後悔の分析も提供する。
我々のアルゴリズムは、全てのリスク許容度に対して既存のLCBベースのアルゴリズムを著しく上回っている。
論文 参考訳(メタデータ) (2020-02-01T15:33:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。