論文の概要: Improving the Accuracy of Amortized Model Comparison with Self-Consistency
- arxiv url: http://arxiv.org/abs/2512.14308v1
- Date: Tue, 16 Dec 2025 11:25:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.696986
- Title: Improving the Accuracy of Amortized Model Comparison with Self-Consistency
- Title(参考訳): Amortized Model の精度向上と自己整合性の比較
- Authors: Šimon Kucharský, Aayush Mishra, Daniel Habermann, Stefan T. Radev, Paul-Christian Bürkner,
- Abstract要約: ABI(Amortized Bayesian Inference)は、統計モデルからシミュレーションしたデータに基づいて神経代理を訓練することにより、後部密度に対する高速でスケーラブルな近似を提供する。
観察されたデータがトレーニング分布外に落下すると、ニューラルサロゲートは予測不能に振る舞うことができる。
自己整合性(SC)に関する最近の研究は、経験的データでさえもアクセス可能な、この問題に対する有望な対策を提供する。
- 参考スコア(独自算出の注目度): 8.705960143968882
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Amortized Bayesian inference (ABI) offers fast, scalable approximations to posterior densities by training neural surrogates on data simulated from the statistical model. However, ABI methods are highly sensitive to model misspecification: when observed data fall outside the training distribution (generative scope of the statistical models), neural surrogates can behave unpredictably. This makes it a challenge in a model comparison setting, where multiple statistical models are considered, of which at least some are misspecified. Recent work on self-consistency (SC) provides a promising remedy to this issue, accessible even for empirical data (without ground-truth labels). In this work, we investigate how SC can improve amortized model comparison conceptualized in four different ways. Across two synthetic and two real-world case studies, we find that approaches for model comparison that estimate marginal likelihoods through approximate parameter posteriors consistently outperform methods that directly approximate model evidence or posterior model probabilities. SC training improves robustness when the likelihood is available, even under severe model misspecification. The benefits of SC for methods without access of analytic likelihoods are more limited and inconsistent. Our results suggest practical guidance for reliable amortized Bayesian model comparison: prefer parameter posterior-based methods and augment them with SC training on empirical datasets to mitigate extrapolation bias under model misspecification.
- Abstract(参考訳): ABI(Amortized Bayesian Inference)は、統計モデルからシミュレーションしたデータに基づいて神経代理を訓練することにより、後部密度に対する高速でスケーラブルな近似を提供する。
しかし、ABI法はモデルの誤識別に非常に敏感であり、観測されたデータがトレーニング分布外(統計モデルの生成範囲)に落下すると、ニューラルサロゲートは予測不能に振る舞う。
これは、複数の統計モデルが考慮されるモデル比較設定において、少なくともいくつかは不特定である。
近年の自己整合性 (SC) に関する研究は、経験的データでさえも(地味なラベルを使わずに)、この問題に対して有望な対策を提供している。
本研究では,SCが4つの異なる方法で概念化されたモデル比較を改善する方法について検討する。
2つの実世界および実世界のケーススタディにおいて、近似パラメータ後部によるモデル比較に対するアプローチは、モデル証拠や後部モデル確率を直接近似する手法よりも一貫して優れていることが判明した。
SCトレーニングは、厳密なモデルミススペクテーションの下でも、可能性のある場合の堅牢性を改善する。
解析的可能性のない手法に対するSCの利点は、より限定的で矛盾する。
提案手法は,モデル不特定性の下での補間バイアスを軽減するため,パラメーター後続法を優先し,経験的データセットを用いたSCトレーニングにより拡張する。
関連論文リスト
- Nonparametric Data Attribution for Diffusion Models [57.820618036556084]
生成モデルのデータ属性は、個々のトレーニング例がモデル出力に与える影響を定量化する。
生成画像とトレーニング画像のパッチレベルの類似性によって影響を測定する非パラメトリック属性法を提案する。
論文 参考訳(メタデータ) (2025-10-16T03:37:16Z) - Model Correlation Detection via Random Selection Probing [62.093777777813756]
既存の類似性に基づく手法では、モデルパラメータにアクセスしたり、しきい値なしでスコアを生成する必要がある。
本稿では,モデル相関検出を統計的テストとして定式化する仮説テストフレームワークであるランダム選択探索(RSP)を紹介する。
RSPは相関の証拠を定量化する厳密なp-値を生成する。
論文 参考訳(メタデータ) (2025-09-29T01:40:26Z) - Towards Trustworthy Amortized Bayesian Model Comparison [8.705960143968882]
我々は、BMC推定を改善するために、ラベルのない実データに自己整合性損失を伴ってシミュレーションベースのトレーニングを補完する。
解析的および橋梁サンプリングベンチマークと比較し, SCの有無と非道徳的証拠推定値の比較を行った。
ニューラルサロゲートの確率は限定的であり、信頼に値するBMCの確率が正確である場合に最も実用的である。
論文 参考訳(メタデータ) (2025-08-28T10:01:01Z) - Supervised Score-Based Modeling by Gradient Boosting [49.556736252628745]
本稿では,スコアマッチングを組み合わせた勾配向上アルゴリズムとして,SSM(Supervised Score-based Model)を提案する。
推測時間と予測精度のバランスをとるため,SSMの学習とサンプリングに関する理論的解析を行った。
我々のモデルは、精度と推測時間の両方で既存のモデルより優れています。
論文 参考訳(メタデータ) (2024-11-02T07:06:53Z) - Latent Semantic Consensus For Deterministic Geometric Model Fitting [109.44565542031384]
我々はLSC(Latent Semantic Consensus)と呼ばれる効果的な方法を提案する。
LSCは、モデルフィッティング問題をデータポイントとモデル仮説に基づく2つの潜在意味空間に定式化する。
LSCは、一般的な多構造モデルフィッティングのために、数ミリ秒以内で一貫した、信頼性の高いソリューションを提供することができる。
論文 参考訳(メタデータ) (2024-03-11T05:35:38Z) - Learning Robust Statistics for Simulation-based Inference under Model
Misspecification [23.331522354991527]
本稿では,シミュレーションに基づく推論手法の異なるクラスにまたがって機能するモデル不特定性を扱うための,最初の一般的なアプローチを提案する。
提案手法は,モデルが適切に特定された場合の精度を保ちながら,不特定シナリオにおいて頑健な推論をもたらすことを示す。
論文 参考訳(メタデータ) (2023-05-25T09:06:26Z) - Model Comparison in Approximate Bayesian Computation [0.456877715768796]
自然科学における一般的な問題は、観測されたデータに照らして競合するモデルの比較である。
この枠組みは、実際に使用されるほとんどのモデルにとって難解な確率関数の計算に依存している。
ABCにおけるベイズモデルの比較を行うための新しい効率的な手法を提案する。
論文 参考訳(メタデータ) (2022-03-15T10:24:16Z) - Contrastive Model Inversion for Data-Free Knowledge Distillation [60.08025054715192]
そこで、データ多様性を最適化可能な目的として明示的にモデル化するContrastive Model Inversionを提案します。
我々の主な観察では、同じ量のデータの制約の下では、高いデータの多様性は、通常より強いインスタンス識別を示す。
CIFAR-10, CIFAR-100, Tiny-ImageNetを用いた実験により, 生成したデータを知識蒸留に使用する場合, CMIは極めて優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-05-18T15:13:00Z) - Autoregressive Score Matching [113.4502004812927]
自動回帰条件スコアモデル(AR-CSM)を提案する。
AR-CSMモデルでは、このデータ分布とモデル分布のばらつきを効率的に計算し、最適化することができ、高価なサンプリングや対向訓練を必要としない。
本研究では,合成データに対する密度推定,画像生成,画像復調,暗黙エンコーダを用いた潜在変数モデルの訓練に応用できることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:01:24Z) - Amortized Bayesian model comparison with evidential deep learning [0.12314765641075436]
本稿では,専門的なディープラーニングアーキテクチャを用いたベイズモデルの比較手法を提案する。
提案手法は純粋にシミュレーションベースであり,観測された各データセットに対して,すべての代替モデルを明示的に適合させるステップを回避している。
提案手法は,本研究で検討した事例に対して,精度,キャリブレーション,効率の点で優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2020-04-22T15:15:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。