論文の概要: The Epistemic Support-Point Filter: Jaynesian Maximum Entropy Meets Popperian Falsification
- arxiv url: http://arxiv.org/abs/2603.10065v2
- Date: Thu, 12 Mar 2026 13:21:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.460794
- Title: The Epistemic Support-Point Filter: Jaynesian Maximum Entropy Meets Popperian Falsification
- Title(参考訳): ポパピアン・ファルシフィケーションに遭遇したJanesian Maximum Entropyの疫学的サポートポイントフィルタ
- Authors: Moriba Kemessia Jah,
- Abstract要約: エピステミックサポートポイントフィルタ(ESPF)は、エビデンスのみのフィルタのクラスにおけるユニークな最適再帰推定器である。
2つの結果は、この定理を推定理論のより広い風景の中に配置する。
2日間の877ステップのSmolyak Level-3軌道追跡走行における数値的な検証は、必要飽和と副次エスカレーションを通じて確率的ストレスが現れることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proves that the Epistemic Support-Point Filter (ESPF) is the unique optimal recursive estimator within the class of epistemically admissible evidence-only filters. Where Bayesian filters minimize mean squared error and are driven toward an assumed truth, the ESPF minimizes maximum entropy and surfaces what has not been proven impossible -- a fundamentally different epistemic commitment with fundamentally different failure modes. Two results locate this theorem within the broader landscape of estimation theory. The first is a unification: the ESPF's optimality criterion is the log-geometric mean of the alpha-cut volume family in the Holder mean hierarchy. The Popperian minimax bound and the Kalman MMSE criterion occupy the p=+inf and p=0 positions on the same curve. Possibility and probability are not competing frameworks: they are the same ignorance functional evaluated under different alpha-cut geometries. The Kalman filter is the Gaussian specialization of the ESPF's optimality criterion, not a separate invention. The second result is a diagnostic: numerical validation over a 2-day, 877-step Smolyak Level-3 orbital tracking run shows that possibilistic stress manifests through necessity saturation and surprisal escalation rather than MVEE sign change -- a direct consequence of the Holder ordering, not an empirical observation. Three lemmas establish the result: the Possibilistic Entropy Lemma decomposes the ignorance functional; the Possibilistic Cramer-Rao Bound limits entropy reduction per measurement; the Evidence-Optimality Lemma proves minimum-q selection is the unique minimizer and that any rule incorporating prior possibility risks race-to-bottom bias.
- Abstract(参考訳): 本稿では,エピステマティック・サポートポイントフィルタ(ESPF)が,認識学的に許容可能なエビデンスのみのフィルタのクラスにおいて,一意に最適な再帰的推定器であることを証明した。
ベイズフィルタが平均二乗誤差を最小化し、仮定された真理に向かって駆動される場合、ESPFは最大エントロピーを最小化し、証明不可能でないものを表面化する。
2つの結果は、この定理を推定理論のより広い風景の中に配置する。
ESPFの最適性基準は、ホルダー平均階層におけるアルファカット体積ファミリーの対数幾何学的平均である。
ポペリアのミニマックス境界とカルマンMMSE基準は、同じ曲線上の p=+inf と p=0 の位置を占める。
可能性と確率は競合するフレームワークではなく、異なるαカット測地の下で評価されるのと同じ無知関数である。
カルマンフィルタは、ESPFの最適性基準のガウス的特殊化であり、別個の発明ではない。
2日間の877ステップのSmolyak Level-3軌道追跡テストによる数値的な検証では、MVEEのサイン変更ではなく、必要飽和と急激なエスカレーションによって、確率的ストレスが現れることが示され、これは経験的な観察ではなくホルダーの順序の直接的な結果である。
Possibilistic Entropy Lemma は無知関数を分解し、Possibilistic Cramer-Rao Bound は測定毎のエントロピー還元を制限する。
関連論文リスト
- HypoSpace: Evaluating LLM Creativity as Set-Valued Hypothesis Generators under Underdetermination [46.896452542901805]
有限仮説集合のサンプルとして LLM を扱う診断スイートである hypoSpace を紹介する。
我々は、決定論的検証器と正確に列挙された仮説空間を持つ3つの構造化された領域において、HypoSpaceをインスタンス化する。
命令調整と推論に焦点を当てたモデル全体では、検証性はしばしば高く保たれ、ユニキネスとリカバリは許容空間が大きくなるにつれて劣化する。
論文 参考訳(メタデータ) (2025-10-17T13:00:32Z) - Semantic Energy: Detecting LLM Hallucination Beyond Entropy [106.92072182161712]
大規模言語モデル(LLM)は、現実のアプリケーションにますますデプロイされているが、幻覚の影響を受けやすいままである。
不確実性推定は、そのような幻覚を検出するための実現可能なアプローチである。
本稿では,新しい不確実性推定フレームワークであるセマンティック・エナジーを紹介する。
論文 参考訳(メタデータ) (2025-08-20T07:33:50Z) - Stability and performance guarantees for misspecified multivariate score-driven filters [0.0]
対数的仮定された観測密度の勾配を用いてパラメータ予測を更新するスコア駆動フィルタ(ISD, ESD)について検討した。
両方のフィルタタイプに対して、フィルタされたパラメータパスの指数的安定性を保証するための、新しい十分な条件を導出する。
ISDフィルタは精度と安定性の点でESDフィルタより優れていることを示すシミュレーション研究により理論的知見を検証した。
論文 参考訳(メタデータ) (2025-02-07T15:48:16Z) - On the Variance, Admissibility, and Stability of Empirical Risk Minimization [57.63331017830154]
経験的リスク最小化(ERM: Empirical Risk Minimization)は、平均2乗誤差で最小限の最適値が得られる。
比較的軽度な仮定の下では、ERMの準最適性はその大きなバイアスによるものでなければならない。
論文 参考訳(メタデータ) (2023-05-29T15:25:48Z) - Near-Optimal Non-Parametric Sequential Tests and Confidence Sequences
with Possibly Dependent Observations [44.71254888821376]
我々は、一般的な非データ生成プロセスの下で、最初のタイプIエラーと予測リジェクション時間保証を提供する。
本研究では, 平均処理効果など, 方程式を推定することによって定義されるパラメータの推測に, 結果を適用する方法を示す。
論文 参考訳(メタデータ) (2022-12-29T18:37:08Z) - Kernel Robust Hypothesis Testing [20.78285964841612]
本稿では,カーネル方式を用いて不確実性集合をデータ駆動方式で構築する。
目標は、不確実性集合上の最悪のケース分布の下でうまく機能するテストを設計することである。
Neyman-Pearsonの設定では、誤検知の最悪のケース確率を最小限に抑え、誤警報の最悪のケース確率を制約する。
論文 参考訳(メタデータ) (2022-03-23T23:59:03Z) - Convex Sparse Blind Deconvolution [5.316642466238073]
未知のフィルタと未知の信号の畳み込みを観察し,フィルタと信号の再構成を試みる。
この問題は一般には不可能に思える。
凸最適化問題により、近似を真のフィルタに変換することで、真のフィルタの高精度回復を実現することができることを示す。
論文 参考訳(メタデータ) (2021-06-13T17:39:26Z) - Relaxing the I.I.D. Assumption: Adaptively Minimax Optimal Regret via
Root-Entropic Regularization [16.536558038560695]
我々は、未知の制約セット内でデータを任意に生成する場合、専門家のアドバイスで予測する。
Hedgeアルゴリズムは、最近、i.d.データに対して同時にミニマックス最適であることが示されている。
我々は,すべてのレベルにおいてミニマックス後悔の上限と下限を一致させ,決定論的学習率を持つヘッジが極端外において最適以下であることを示し,すべてのレベルにおいてミニマックス後悔を適応的に得ることを証明した。
論文 参考訳(メタデータ) (2020-07-13T17:54:34Z) - Free Energy Wells and Overlap Gap Property in Sparse PCA [81.64027805404483]
我々は「ハード」体制におけるスパースPCA問題(主成分分析)の変種について検討する。
問題に自然に関連付けられた様々なギブズ測度に対する自由エネルギー井戸の深さの有界性を示す。
我々は、オーバーラップギャップ特性(OGP)がハードレジームの重要な部分を占めていることを証明した。
論文 参考訳(メタデータ) (2020-06-18T17:18:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。