論文の概要: Stabilizing the Kumaraswamy Distribution
- arxiv url: http://arxiv.org/abs/2410.00660v1
- Date: Tue, 1 Oct 2024 13:15:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 04:35:05.168886
- Title: Stabilizing the Kumaraswamy Distribution
- Title(参考訳): クマラスワミー分布の安定化
- Authors: Max Wasserman, Gonzalo Mateos,
- Abstract要約: 大規模潜在変数モデルは効率的なサンプリングと低分散微分をサポートする表現的連続分布を必要とする。
Kumaraswamy (KS) 分布はどちらも表現的であり、単純な閉形式逆CDFで再探索のトリックをサポートする。
逆CDFとlog-pdfの数値不安定性を同定し,PyTorchやグラフニューラルネットワークなどのライブラリの問題を明らかにする。
- 参考スコア(独自算出の注目度): 10.957528713294874
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large-scale latent variable models require expressive continuous distributions that support efficient sampling and low-variance differentiation, achievable through the reparameterization trick. The Kumaraswamy (KS) distribution is both expressive and supports the reparameterization trick with a simple closed-form inverse CDF. Yet, its adoption remains limited. We identify and resolve numerical instabilities in the inverse CDF and log-pdf, exposing issues in libraries like PyTorch and TensorFlow. We then introduce simple and scalable latent variable models based on the KS, improving exploration-exploitation trade-offs in contextual multi-armed bandits and enhancing uncertainty quantification for link prediction with graph neural networks. Our results support the stabilized KS distribution as a core component in scalable variational models for bounded latent variables.
- Abstract(参考訳): 大規模潜在変数モデルは、効率的なサンプリングと低分散微分をサポートする表現的連続分布を必要とし、再パラメータ化のトリックによって達成できる。
Kumaraswamy(KS)分布はどちらも表現的であり、単純な閉形式逆CDFで再パラメータ化トリックをサポートする。
しかし、採用は限られている。
逆CDFとlog-pdfの数値不安定性を同定し、PyTorchやTensorFlowといったライブラリの問題を明らかにする。
次に、KSに基づく単純でスケーラブルな潜伏変数モデルを導入し、コンテキスト型マルチアームバンドにおける探索・探索トレードオフを改善し、グラフニューラルネットワークとのリンク予測のための不確実性定量化を向上する。
本結果は,有界潜在変数に対するスケーラブルな変動モデルにおけるコアコンポーネントとして安定化KS分布を支持する。
関連論文リスト
- A probabilistic, data-driven closure model for RANS simulations with aleatoric, model uncertainty [1.8416014644193066]
本稿では,レノルズ平均Navier-Stokes (RANS) シミュレーションのためのデータ駆動閉包モデルを提案する。
パラメトリック閉包が不十分な問題領域内の領域を特定するために,完全ベイズ的定式化と余剰誘導先行法を組み合わせて提案する。
論文 参考訳(メタデータ) (2023-07-05T16:53:31Z) - GFlowNet-EM for learning compositional latent variable models [115.96660869630227]
ラテントの後方のモデリングにおける重要なトレードオフは、表現性とトラクタブルな最適化の間にある。
非正規化密度からサンプリングするアルゴリズムであるGFlowNetsを提案する。
GFlowNetsをトレーニングして、後部から潜伏者へのサンプルをトレーニングすることにより、それらの強度をアモータライズされた変分アルゴリズムとして活用する。
論文 参考訳(メタデータ) (2023-02-13T18:24:21Z) - Learning Multivariate CDFs and Copulas using Tensor Factorization [39.24470798045442]
データの多変量分布を学習することは、統計学と機械学習における中核的な課題である。
本研究では,多変量累積分布関数(CDF)を学習し,混合確率変数を扱えるようにすることを目的とする。
混合確率変数の合同CDFの任意のグリッドサンプリング版は、単純ベイズモデルとして普遍表現を許容することを示す。
提案モデルの性能を,回帰,サンプリング,データ計算を含むいくつかの合成および実データおよびアプリケーションで実証する。
論文 参考訳(メタデータ) (2022-10-13T16:18:46Z) - ReCAB-VAE: Gumbel-Softmax Variational Inference Based on Analytic
Divergence [17.665255113864795]
緩和されたカテゴリー分布のクルバック・リーブラー発散(KLD)の上界に対応する新しい発散型計量について述べる。
また、連続表現と緩和表現の両方をうまくモデル化できる緩和された分類的有界変分オートエンコーダ(ReCAB-VAE)を提案する。
論文 参考訳(メタデータ) (2022-05-09T08:11:46Z) - Certifying Model Accuracy under Distribution Shifts [151.67113334248464]
本稿では,データ分布の有界ワッサースタインシフトの下でのモデルの精度について,証明可能なロバスト性保証を提案する。
変換空間におけるモデルの入力をランダム化する単純な手順は、変換の下での分布シフトに対して確実に堅牢であることを示す。
論文 参考訳(メタデータ) (2022-01-28T22:03:50Z) - Accuracy on the Line: On the Strong Correlation Between
Out-of-Distribution and In-Distribution Generalization [89.73665256847858]
分布外性能は,広範囲なモデルと分布シフトに対する分布内性能と強く相関していることを示す。
具体的には,CIFAR-10 と ImageNet の変種に対する分布内分布と分布外分布性能の強い相関関係を示す。
また,CIFAR-10-Cと組織分類データセットCamelyon17-WILDSの合成分布の変化など,相関が弱いケースについても検討した。
論文 参考訳(メタデータ) (2021-07-09T19:48:23Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - Variational Filtering with Copula Models for SLAM [5.242618356321224]
より広い分布のクラスと同時局所化とマッピング(SLAM)を同時に行うことができるかを示す。
分布モデルとコプラを逐次モンテカルロ推定器に統合し、勾配に基づく最適化によって未知のモデルパラメータがいかに学習できるかを示す。
論文 参考訳(メタデータ) (2020-08-02T15:38:23Z) - Efficient Marginalization of Discrete and Structured Latent Variables
via Sparsity [26.518803984578867]
離散的な(分類的または構造化された)潜在変数を持つニューラルネットワークモデルを訓練することは、計算的に困難である。
典型的には、真の限界のサンプリングに基づく近似に頼っている。
そこで本研究では,これらの推定器を高精度かつ効率的なマージン化によって置き換える新たなトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-07-03T19:36:35Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Feature Quantization Improves GAN Training [126.02828112121874]
識別器の特徴量子化(FQ)は、真と偽のデータの両方を共有離散空間に埋め込む。
本手法は,既存のGANモデルに容易に接続でき,訓練における計算オーバーヘッドがほとんどない。
論文 参考訳(メタデータ) (2020-04-05T04:06:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。