論文の概要: A Stein Identity for q-Gaussians with Bounded Support
- arxiv url: http://arxiv.org/abs/2603.03673v1
- Date: Wed, 04 Mar 2026 03:00:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.164954
- Title: A Stein Identity for q-Gaussians with Bounded Support
- Title(参考訳): 境界を持つq-Gaussianのステインアイデンティティ
- Authors: Sophia Sklaviadis, Thomas Moellenhoff, Andre F. T. Martins, Mario A. T. Figueiredo, Mohammad Emtiyaz Khan,
- Abstract要約: 我々は、有界な$q$-ガウス多様体のクラスを考え、ガウス形式とほぼ同じ形式を持つ勾配推定子に導かれる新しいシュタイン恒等式を導出する。
実験により,有界支持分布は勾配推定器のばらつきを低減できることが示された。
全体として、我々の研究は、非ガウス分布の重要なクラスに対するスタインの恒等式の適用を単純化する。
- 参考スコア(独自算出の注目度): 12.630066672911136
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Stein's identity is a fundamental tool in machine learning with applications in generative models, stochastic optimization, and other problems involving gradients of expectations under Gaussian distributions. Less attention has been paid to problems with non-Gaussian expectations. Here, we consider the class of bounded-support $q$-Gaussians and derive a new Stein identity leading to gradient estimators which have nearly identical forms to the Gaussian ones, and which are similarly easy to implement. We do this by extending the previous results of Landsman, Vanduffel, and Yao (2013) to prove new Bonnet- and Price-type theorems for q-Gaussians. We also simplify their forms by using escort distributions. Our experiments show that bounded-support distributions can reduce the variance of gradient estimators, which can potentially be useful for Bayesian deep learning and sharpness-aware minimization. Overall, our work simplifies the application of Stein's identity for an important class of non-Gaussian distributions.
- Abstract(参考訳): スタインのアイデンティティは、生成モデル、確率的最適化、およびガウス分布の下での期待の勾配に関する他の問題に応用された機械学習の基本的なツールである。
非ガウス的な期待の問題にはあまり注意が払われていない。
ここでは、有界な$q$-ガウス多様体のクラスを考察し、ガウス形式とほぼ同じ形式を持ち、同様に実装が容易な勾配推定子に導かれる新しいシュタイン恒等式を導出する。
我々は、Landsman, Vanduffel, Yao (2013) の以前の結果を拡張して、q-ガウスの新たなボネット型およびプライス型定理を証明した。
また、護衛分布を用いることで、それらの形式を簡素化する。
実験により,有界支持分布は勾配推定器の分散を低減し,ベイズ深層学習や鋭度認識の最小化に有用である可能性が示唆された。
全体として、我々の研究は、非ガウス分布の重要なクラスに対するスタインの恒等式の適用を単純化する。
関連論文リスト
- A Stein Gradient Descent Approach for Doubly Intractable Distributions [5.63014864822787]
そこで本研究では,2重に抽出可能な分布を推定するために,モンテカルロ・スタイン変分勾配勾配(MC-SVGD)法を提案する。
提案手法は,後続分布に匹敵する推論性能を提供しながら,既存のアルゴリズムよりもかなりの計算ゲインを達成する。
論文 参考訳(メタデータ) (2024-10-28T13:42:27Z) - Mirror Bridges Between Probability Measures [16.359542985936713]
密度が不明な対象尺度からのサンプリングは、数学統計学と機械学習の基本的な問題である。
本稿では, ミラーブリッジと呼ばれる新しいモデルを提案し, 条件付き再サンプリングの問題を解く。
論文 参考訳(メタデータ) (2024-10-09T15:48:56Z) - Score-based generative models are provably robust: an uncertainty quantification perspective [4.396860522241307]
本研究では,スコアベース生成モデル (SGM) が実運用において複数の誤差源に対して確実に堅牢であることを示す。
我々の主要なツールは、ワッサーシュタイン不確実性伝播(WUP)定理である。
a) 有限サンプル近似による誤差, (b) 早期停止, (c) スコアマッチング対象選択, (d) スコア関数パラメトリゼーション, (e) 基準分布選択が生成モデルの品質に与える影響を示す。
論文 参考訳(メタデータ) (2024-05-24T17:50:17Z) - Symmetric Q-learning: Reducing Skewness of Bellman Error in Online
Reinforcement Learning [55.75959755058356]
深層強化学習では、状態や行動の質を評価するために、価値関数を推定することが不可欠である。
最近の研究では、値関数を訓練する際の誤差分布はベルマン作用素の特性のためにしばしば歪むことが示唆されている。
そこで我々は,ゼロ平均分布から発生する合成ノイズを目標値に加え,ガウス誤差分布を生成するSymmetric Q-learning法を提案する。
論文 参考訳(メタデータ) (2024-03-12T14:49:19Z) - Tempered Calculus for ML: Application to Hyperbolic Model Embedding [70.61101116794549]
MLで使用されるほとんどの数学的歪みは、本質的に自然界において積分的である。
本稿では,これらの歪みを改善するための基礎的理論とツールを公表し,機械学習の要件に対処する。
我々は、最近MLで注目を集めた問題、すなわち、ハイパーボリック埋め込みを「チープ」で正確なエンコーディングで適用する方法を示す。
論文 参考訳(メタデータ) (2024-02-06T17:21:06Z) - Zero-Inflated Bandits [11.60342504007264]
そこでは,ゼロ膨らみ分布と呼ばれる古典的半パラメトリック分布を用いて報酬をモデル化する。
我々は、この特定の構造のためのアッパー信頼境界とトンプソンサンプリングフレームワークに基づくアルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-12-25T03:13:21Z) - Value-Distributional Model-Based Reinforcement Learning [59.758009422067]
政策の長期的業績に関する不確実性の定量化は、シーケンシャルな意思決定タスクを解決するために重要である。
モデルに基づくベイズ強化学習の観点から問題を考察する。
本稿では,値分布関数を学習するモデルに基づくアルゴリズムであるEpicemic Quantile-Regression(EQR)を提案する。
論文 参考訳(メタデータ) (2023-08-12T14:59:19Z) - Semi-Supervised Laplace Learning on Stiefel Manifolds [48.3427853588646]
グラフベースで教師付きサンプルを低ラベルレートで作成するためのフレームワークSequential Subspaceを開発した。
我々の手法は極めて低いレートで、高いラベルレートで達成できる。
論文 参考訳(メタデータ) (2023-07-31T20:19:36Z) - The Schr\"odinger Bridge between Gaussian Measures has a Closed Form [101.79851806388699]
我々は OT の動的定式化(Schr"odinger bridge (SB) 問題)に焦点を当てる。
本稿では,ガウス測度間のSBに対する閉形式表現について述べる。
論文 参考訳(メタデータ) (2022-02-11T15:59:01Z) - Exponentially Tilted Gaussian Prior for Variational Autoencoder [3.52359746858894]
近年の研究では, この課題に対して確率的生成モデルが不十分であることが示されている。
変分オートエンコーダ(VAE)の指数傾斜ガウス事前分布を提案する。
本モデルでは,標準ガウスVAEよりクオリティの高い画像サンプルが得られた。
論文 参考訳(メタデータ) (2021-11-30T18:28:19Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Bayesian Deep Learning and a Probabilistic Perspective of Generalization [56.69671152009899]
ディープアンサンブルはベイズ辺化を近似する有効なメカニズムであることを示す。
また,アトラクションの流域内での辺縁化により,予測分布をさらに改善する関連手法を提案する。
論文 参考訳(メタデータ) (2020-02-20T15:13:27Z) - Stein's Lemma for the Reparameterization Trick with Exponential Family Mixtures [23.941042092067338]
スタインの補題はスタインの方法において重要な役割を果たす。
我々はスタインの補題を指数列混合分布に拡張する。
論文 参考訳(メタデータ) (2019-10-29T16:59:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。