論文の概要: Robust inference using density-powered Stein operators
- arxiv url: http://arxiv.org/abs/2511.03963v1
- Date: Thu, 06 Nov 2025 01:32:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.262172
- Title: Robust inference using density-powered Stein operators
- Title(参考訳): 密度駆動シュタイン作用素を用いたロバスト推論
- Authors: Shinto Eguchi,
- Abstract要約: 我々は、Stein演算子に対して、$gamma$-Stein演算子と呼ばれる密度パワー重み付き変種を導入する。
これは$gamma$-divergenceから派生した新しい作用素のクラスであり、非正規化確率モデルに対する堅牢な推論手法を構築するために設計された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a density-power weighted variant for the Stein operator, called the $\gamma$-Stein operator. This is a novel class of operators derived from the $\gamma$-divergence, designed to build robust inference methods for unnormalized probability models. The operator's construction (weighting by the model density raised to a positive power $\gamma$ inherently down-weights the influence of outliers, providing a principled mechanism for robustness. Applying this operator yields a robust generalization of score matching that retains the crucial property of being independent of the model's normalizing constant. We extend this framework to develop two key applications: the $\gamma$-kernelized Stein discrepancy for robust goodness-of-fit testing, and $\gamma$-Stein variational gradient descent for robust Bayesian posterior approximation. Empirical results on contaminated Gaussian and quartic potential models show our methods significantly outperform standard baselines in both robustness and statistical efficiency.
- Abstract(参考訳): 我々は、Stein演算子に対して$\gamma$-Stein演算子と呼ばれる密度パワー重み付き変種を導入する。
これは$\gamma$-divergenceから派生した新しい作用素のクラスであり、非正規化確率モデルに対する堅牢な推論方法を構築するために設計された。
作用素の構成(モデル密度による重み付け)は正のパワー$\gamma$に上昇し、本質的には外れ値の影響を下降させ、ロバストネスの原理的なメカニズムを提供する。
この演算子を適用すると、スコアマッチングの堅牢な一般化が得られ、これはモデルの正規化定数とは独立である重要な性質を保持する。
このフレームワークは、2つの主要なアプリケーションを開発するために拡張される: $\gamma$-kernelized Stein discrepancy for robust goodness-of-fit testing, and $\gamma$-Stein variational gradient descent for robust Bayesian back approximation。
汚染されたガウスポテンシャルモデルとクォートポテンシャルモデルに対する実験結果から、我々の手法はロバスト性および統計的効率の両方において標準ベースラインを著しく上回っていることがわかる。
関連論文リスト
- Robust and Computation-Aware Gaussian Processes [20.948688720498644]
本稿では,近似による不確実性の原理的処理と強一般化ベイズ更新を組み合わせた新しいGPモデルであるRobust Computation-Aware Gaussian Process (RCaGP)を紹介する。
私たちのモデルは、より保守的で信頼性の高い不確実性評価を確実にします。
実験の結果、これらの課題を共同で解決することで、クリーンな設定とアウターな設定の両方で優れたパフォーマンスが得られることが確認された。
論文 参考訳(メタデータ) (2025-05-27T12:49:14Z) - Rigorous Probabilistic Guarantees for Robust Counterfactual Explanations [80.86128012438834]
モデルシフトに対する反ファクトの堅牢性を計算することはNP完全であることを示す。
本稿では,頑健性の厳密な推定を高い保証で実現する新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T09:13:11Z) - Universal generalization guarantees for Wasserstein distributionally robust models [10.036727981085223]
分散ロバストな最適化は、堅牢な機械学習モデルをトレーニングする魅力的な方法として登場した。
最近の統計分析により、ワッサーシュタイン距離に基づくロバストモデルの一般化保証が、次元の呪いに苦しむことのない一般化保証を持つことが証明された。
我々は、任意の輸送コストとパラメトリック損失関数を伴って、幅広いケースをカバーする正確な一般化保証を確立する。
論文 参考訳(メタデータ) (2024-02-19T09:27:47Z) - Double Pessimism is Provably Efficient for Distributionally Robust
Offline Reinforcement Learning: Generic Algorithm and Robust Partial Coverage [15.858892479232656]
頑健なオフライン強化学習(ロバストオフラインRL)について検討する。
我々は、Douubly Pessimistic Model-based Policy Optimization(P2MPO$)と呼ばれる汎用アルゴリズムフレームワークを提案する。
P2MPO$は$tildemathcalO(n-1/2)$コンバーゼンスレートで、$n$はデータセットサイズである。
論文 参考訳(メタデータ) (2023-05-16T17:58:05Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - $\gamma$-ABC: Outlier-Robust Approximate Bayesian Computation Based on a
Robust Divergence Estimator [95.71091446753414]
最寄りの$gamma$-divergence推定器をデータ差分尺度として用いることを提案する。
本手法は既存の不一致対策よりも高いロバスト性を実現する。
論文 参考訳(メタデータ) (2020-06-13T06:09:27Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z) - Distributional Robustness and Regularization in Reinforcement Learning [62.23012916708608]
経験値関数の新しい正規化器を導入し、ワッサーシュタイン分布のロバストな値関数を下限とすることを示す。
強化学習における$textitexternalな不確実性に対処するための実用的なツールとして正規化を使用することを提案する。
論文 参考訳(メタデータ) (2020-03-05T19:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。