論文の概要: New affine invariant ensemble samplers and their dimensional scaling
- arxiv url: http://arxiv.org/abs/2505.02987v2
- Date: Mon, 19 May 2025 21:01:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.15706
- Title: New affine invariant ensemble samplers and their dimensional scaling
- Title(参考訳): 新しいアフィン不変アンサンブルサンプリング器とその次元スケーリング
- Authors: Yifan Chen,
- Abstract要約: 本稿では,既存のアルゴリズムの構築と改良が容易な新しいアフィン不変アンサンブルサンプリング手法を提案する。
具体的には、$textttemcee$ packageの一般的なサンプルよりも好適に動作するデリバティブフリーアンサンブルサイド移動サンプリングを提案する。
- 参考スコア(独自算出の注目度): 3.1615306910649124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce new affine invariant ensemble samplers that are easy to construct and improve upon existing algorithms, especially for high-dimensional problems. Specifically, we propose a derivative-free ensemble side move sampler that performs favorably compared to popular samplers in the $\texttt{emcee}$ package. Additionally, we develop a class of derivative-based ensemble Hamiltonian Monte Carlo (HMC) samplers with affine invariance, which outperform standard HMC without affine invariance when sampling highly skewed distributions. We provide asymptotic scaling analysis for high-dimensional Gaussian targets to further elucidate the properties of these affine invariant ensemble samplers. In particular, with derivative information, the affine invariant ensemble HMC can scale much better with dimension compared to derivative-free ensemble samplers.
- Abstract(参考訳): 本稿では,既存のアルゴリズム,特に高次元問題に対して,構築や改良が容易な新しいアフィン不変アンサンブルサンプリング手法を提案する。
具体的には、$\texttt{emcee}$ packageの一般的なサンプルよりも好適に機能するデリバティブフリーアンサンブルサイド移動サンプリング器を提案する。
さらに,高スキュー分布をサンプリングする場合に,アフィン不変性のない標準HMCよりも優れた,アフィン不変性を有する微分アンサンブル・ハミルトン・モンテカルロ (HMC) サンプリング器のクラスを開発する。
本研究では,高次元ガウス目標に対する漸近スケーリング解析を行い,これらのアフィン不変アンサンブルサンプリングの特性をさらに解明する。
特に、デリバティブ情報では、アフィン不変アンサンブル HMC は、デリバティブフリーアンサンブルサンプリング器よりも次元がはるかに良くスケールできる。
関連論文リスト
- Equivariant score-based generative models provably learn distributions with symmetries efficiently [7.90752151686317]
実験的な研究により、対称性を生成モデルに組み込むことで、より優れた一般化とサンプリング効率が得られることが示されている。
我々は,ある群対称性に対して不変な分布を学習するためのスコアベース生成モデル(SGM)の最初の理論的解析と保証を提供する。
論文 参考訳(メタデータ) (2024-10-02T05:14:28Z) - Variational Learning of Gaussian Process Latent Variable Models through Stochastic Gradient Annealed Importance Sampling [22.256068524699472]
本研究では,これらの問題に対処するために,Annealed Importance Smpling (AIS)アプローチを提案する。
シークエンシャルモンテカルロサンプリング器とVIの強度を組み合わせることで、より広い範囲の後方分布を探索し、徐々にターゲット分布に接近する。
実験結果から,本手法はより厳密な変動境界,高い対数類似度,より堅牢な収束率で最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-13T08:09:05Z) - Parallel Affine Transformation Tuning of Markov Chain Monte Carlo [1.0923877073891446]
特に,サンプリング中のアフィン変換を適応的に学習するフレキシブルでユーザフレンドリなスキームを提案する。
提案手法とギブシアン極スライスサンプリングの組み合わせにより,比較的低い計算コストで高品質な試料が得られた。
論文 参考訳(メタデータ) (2024-01-29T21:06:25Z) - Graph Invariant Learning with Subgraph Co-mixup for Out-Of-Distribution
Generalization [51.913685334368104]
本稿では,変分パターンと変分パターンの混合戦略に基づく新しいグラフ不変学習手法を提案する。
本手法は, 各種分布シフト下での最先端性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-12-18T07:26:56Z) - Chebyshev Particles [0.0]
まず、対象の後方分布を無限次元ユークリッド空間におけるサンプルの写像として考える。
重み付けされたリース分極量を最大化して、ペアの相互作用により、補正可能な部分多様体を識別する新しい基準を提案する。
我々は,合成データを用いた線形状態空間モデルと実世界のデータを用いた非線形ボラティリティモデルを用いたパラメータ推論実験により,高い性能を実現した。
論文 参考訳(メタデータ) (2023-09-10T16:40:30Z) - SIGMA: Scale-Invariant Global Sparse Shape Matching [50.385414715675076]
非剛体形状の正確なスパース対応を生成するための新しい混合整数プログラミング(MIP)法を提案する。
いくつかの挑戦的な3Dデータセットに対して,スパースな非剛性マッチングの最先端結果を示す。
論文 参考訳(メタデータ) (2023-08-16T14:25:30Z) - Learning Equivariant Energy Based Models with Equivariant Stein
Variational Gradient Descent [80.73580820014242]
本稿では,確率モデルに対称性を組み込むことにより,確率密度の効率的なサンプリングと学習の問題に焦点をあてる。
まず、等変シュタイン変分勾配Descentアルゴリズムを導入する。これは、対称性を持つ密度からサンプリングするスタインの同一性に基づく同変サンプリング法である。
我々はエネルギーベースモデルのトレーニングを改善し、スケールアップする新しい方法を提案する。
論文 参考訳(メタデータ) (2021-06-15T01:35:17Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。