論文の概要: Minimum Distance Summaries for Robust Neural Posterior Estimation
- arxiv url: http://arxiv.org/abs/2602.09161v1
- Date: Mon, 09 Feb 2026 20:06:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.230973
- Title: Minimum Distance Summaries for Robust Neural Posterior Estimation
- Title(参考訳): ロバスト神経後部推定のための最小距離サマリー
- Authors: Sherman Khoo, Dennis Prangle, Song Liu, Mark Beaumont,
- Abstract要約: シミュレーションベース推論(SBI)は、前シミュレーションペア上で神経後部推定器(NPE)をトレーニングすることで、償却ベイズ推論を可能にする。
プリミティブ・ディスタンス・サマリー(minimum-distance summaries)は,プレトレーニング済みのNPEとは独立に,クエリされたテスト時間サマリーを適応するプラグイン・ロバストなNPE手法である。
- 参考スコア(独自算出の注目度): 7.4716500353679685
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simulation-based inference (SBI) enables amortized Bayesian inference by first training a neural posterior estimator (NPE) on prior-simulator pairs, typically through low-dimensional summary statistics, which can then be cheaply reused for fast inference by querying it on new test observations. Because NPE is estimated under the training data distribution, it is susceptible to misspecification when observations deviate from the training distribution. Many robust SBI approaches address this by modifying NPE training or introducing error models, coupling robustness to the inference network and compromising amortization and modularity. We introduce minimum-distance summaries, a plug-in robust NPE method that adapts queried test-time summaries independently of the pretrained NPE. Leveraging the maximum mean discrepancy (MMD) as a distance between observed data and a summary-conditional predictive distribution, the adapted summary inherits strong robustness properties from the MMD. We demonstrate that the algorithm can be implemented efficiently with random Fourier feature approximations, yielding a lightweight, model-free test-time adaptation procedure. We provide theoretical guarantees for the robustness of our algorithm and empirically evaluate it on a range of synthetic and real-world tasks, demonstrating substantial robustness gains with minimal additional overhead.
- Abstract(参考訳): シミュレーションベース推論(SBI)は、前シミュレーションペア(典型的には低次元の要約統計によって)で神経後部推定器(NPE)を訓練し、新しい試験観測で高速な推論のために安価に再利用することで、アモータイズされたベイズ推論を可能にする。
NPEはトレーニングデータ分布に基づいて推定されるため、観測結果がトレーニング分布から逸脱した場合には、誤特定の影響を受けやすい。
多くのロバストなSBIアプローチは、NPEトレーニングの変更やエラーモデルの導入、推論ネットワークへの結合堅牢性、償却とモジュラリティの妥協によってこの問題に対処している。
プリミティブ・ディスタンス・サマリー(minimum-distance summaries)は,プレトレーニング済みのNPEとは独立に,クエリされたテスト時間サマリーを適応するプラグイン・ロバストなNPE手法である。
最大平均差分率(MMD)を観測データと要約条件予測分布の距離として利用することにより、適応された要約はMDDから強い強靭性特性を継承する。
このアルゴリズムはランダムなフーリエ特徴近似を用いて効率よく実装でき、軽量でモデルフリーなテスト時間適応法が得られることを実証する。
我々は,アルゴリズムの堅牢性に関する理論的保証を提供し,それを人工的および実世界の様々なタスクで実証的に評価し,追加オーバーヘッドを最小限に抑えた実質的な堅牢性向上を実証する。
関連論文リスト
- Accelerated Test-Time Scaling with Model-Free Speculative Sampling [58.69141724095398]
STAND(Stochastic Adaptive N-gram Drafting)は,新しいモデルフリーな投機的デコード手法である。
従来の自己回帰復号法と比較して,STANDは推論遅延を60~65%削減することを示した。
モデルフリーのアプローチとして、STANDは追加のトレーニングなしで既存の言語モデルに適用できる。
論文 参考訳(メタデータ) (2025-06-05T07:31:18Z) - Effortless, Simulation-Efficient Bayesian Inference using Tabular Foundation Models [14.125143586947177]
本研究では,TabPFNをSBIの自己回帰条件密度推定器として用いる方法を示す。
NPE-PFNは、推論ネットワークの選択、トレーニング、ハイパーパラメータチューニングの必要性を排除する。
モデルミス特定に優れたロバスト性を示し、TabPFNのコンテキストサイズ限界を超えるシミュレーション予算にスケールできる。
論文 参考訳(メタデータ) (2025-04-24T15:29:39Z) - Quantifying the Prediction Uncertainty of Machine Learning Models for Individual Data [2.1248439796866228]
本研究では,線形回帰とニューラルネットワークに対するpNMLの学習可能性について検討する。
pNMLは様々なタスクにおけるこれらのモデルの性能と堅牢性を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-12-10T13:58:19Z) - Preconditioned Neural Posterior Estimation for Likelihood-free Inference [5.651060979874024]
本稿では,低次元問題においても,神経後部推定法(NPE)の精度は高くないことを示す。
我々は,ABCの短い動作でパラメータ空間の領域を効果的に排除し,シミュレーションとデータ間の大きな相違を生じさせる,プレコンディション付きNPEとそのシーケンシャルバージョン(PSNPE)を提案する。
本稿では, ニューラルネットワークと統計的SBI法を融合させることにより, 様々な事例において性能が向上することを示す。
論文 参考訳(メタデータ) (2024-04-21T07:05:38Z) - A Free Lunch with Influence Functions? Improving Neural Network
Estimates with Concepts from Semiparametric Statistics [41.99023989695363]
ニューラルネットワークや機械学習アルゴリズムの改善に使用される半パラメトリック理論の可能性を探る。
本稿では,単一アーキテクチャを用いてアンサンブルの柔軟性と多様性を求めるニューラルネットワーク手法であるMultiNetを提案する。
論文 参考訳(メタデータ) (2022-02-18T09:35:51Z) - Rapid Risk Minimization with Bayesian Models Through Deep Learning
Approximation [9.93116974480156]
本稿では,ベイズモデル (BM) とニューラルネットワーク (NN) を組み合わせて,予測を最小限のリスクで行う手法を提案する。
私たちのアプローチは、BMのデータ効率と解釈可能性とNNの速度を組み合わせます。
テストデータセットに無視できる損失がある標準手法よりも、リスク最小限の予測をはるかに高速に達成する。
論文 参考訳(メタデータ) (2021-03-29T15:08:25Z) - Multi-Sample Online Learning for Spiking Neural Networks based on
Generalized Expectation Maximization [42.125394498649015]
スパイキングニューラルネットワーク(SNN)は、バイナリニューラルダイナミックアクティベーションを通じて処理することで、生物学的脳の効率の一部をキャプチャする。
本稿では, シナプス重みを共有しながら, 独立したスパイキング信号をサンプリングする複数のコンパートメントを活用することを提案する。
鍵となる考え方は、これらの信号を使ってログライクなトレーニング基準のより正確な統計的推定と勾配を求めることである。
論文 参考訳(メタデータ) (2021-02-05T16:39:42Z) - Neural Model-based Optimization with Right-Censored Observations [42.530925002607376]
ニューラルネットワーク(NN)は、モデルベースの最適化手順のコアでうまく機能することが実証されている。
トレーニングされた回帰モデルは,いくつかのベースラインよりも優れた予測品質が得られることを示す。
論文 参考訳(メタデータ) (2020-09-29T07:32:30Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。