論文の概要: Sample Complexity of Probability Divergences under Group Symmetry
- arxiv url: http://arxiv.org/abs/2302.01915v1
- Date: Fri, 3 Feb 2023 18:50:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-06 15:15:02.703110
- Title: Sample Complexity of Probability Divergences under Group Symmetry
- Title(参考訳): 群対称性下における確率発散のサンプル複雑性
- Authors: Ziyu Chen, Markos A. Katsoulakis, Luc Rey-Bellet, Wei Zhu
- Abstract要約: Wasserstein-1 計量とLipschitz-regularized $alpha$-divergences の場合、サンプルの複雑さの減少は、グループサイズの周囲次元依存性の力に比例する。
最大平均差分率(MMD)については、グループサイズだけでなく、カーネルの選択にも依存するため、サンプルの複雑さの改善はより曖昧である。
- 参考スコア(独自算出の注目度): 9.478466072397708
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We rigorously quantify the improvement in the sample complexity of
variational divergence estimations for group-invariant distributions. In the
cases of the Wasserstein-1 metric and the Lipschitz-regularized
$\alpha$-divergences, the reduction of sample complexity is proportional to an
ambient-dimension-dependent power of the group size. For the maximum mean
discrepancy (MMD), the improvement of sample complexity is more nuanced, as it
depends on not only the group size but also the choice of kernel. Numerical
simulations verify our theories.
- Abstract(参考訳): 群不変分布に対する変分発散推定のサンプル複雑性の改善を厳密に定量化する。
Wasserstein-1 計量と Lipschitz-regularized $\alpha$-divergences の場合、サンプルの複雑さの減少は、グループサイズの周囲次元依存性の力に比例する。
最大平均偏差 (mmd) については、群のサイズだけでなくカーネルの選択にも依存するため、サンプル複雑性の改善はより微妙なものである。
数値シミュレーションは我々の理論を検証する。
関連論文リスト
- Sample Complexity Bounds for Estimating Probability Divergences under
Invariances [37.74032673086741]
群不変確率分布は、機械学習において多くのデータ生成モデルに現れる。
本研究では, 多様体上のリー群の滑らかな作用に関して, 固有の不変性が, サンプルの複雑性をいかに改善するかを考察する。
結果は正次元の群にとって全く新しいものであり、有限群作用に対する最近の境界を拡張する。
論文 参考訳(メタデータ) (2023-11-06T04:45:21Z) - The Exact Sample Complexity Gain from Invariances for Kernel Regression [37.74032673086741]
実際には、モデルの不変性を符号化することで、サンプルの複雑さが向上する。
コンパクト多様体上でのカーネルリッジ回帰に対する最小値の最適値を与える。
我々の結果は任意の滑らかなコンパクトリー群作用、あるいは正次元の群に対しても成り立つ。
論文 参考訳(メタデータ) (2023-03-24T20:47:31Z) - Mean-Square Analysis of Discretized It\^o Diffusions for Heavy-tailed
Sampling [17.415391025051434]
重み付きポインカーの不等式に関連する伊藤拡散の自然クラスを離散化することにより、重み付き分布のクラスからのサンプリングの複雑さを分析する。
平均二乗解析に基づいて、ワッサーシュタイン2計量のターゲット分布に近い分布が$epsilon$のサンプルを得るための反復複雑性を確立する。
論文 参考訳(メタデータ) (2023-03-01T15:16:03Z) - On-Demand Sampling: Learning Optimally from Multiple Distributions [87.09946206044332]
社会的・現実世界の考察は、協調的、集団的分布的堅牢性、公正な連合学習など、多分野の学習パラダイムを生み出している。
本稿では、これらの学習パラダイムの最適なサンプル複雑性を確立し、このサンプル複雑性を満たすアルゴリズムを提供する。
私たちのアルゴリズムの設計と分析は、プレイヤーの安価なワンオフサンプルやより高価な再利用可能なサンプルへのアクセスをトレードオフできるミラー・ダイスンの拡張によって実現されます。
論文 参考訳(メタデータ) (2022-10-22T19:07:26Z) - Efficient CDF Approximations for Normalizing Flows [64.60846767084877]
正規化フローの微分同相性に基づいて、閉領域上の累積分布関数(CDF)を推定する。
一般的なフローアーキテクチャとUCIデータセットに関する実験は,従来の推定器と比較して,サンプル効率が著しく向上したことを示している。
論文 参考訳(メタデータ) (2022-02-23T06:11:49Z) - Forster Decomposition and Learning Halfspaces with Noise [60.691817861402676]
フォースター変換 (Forster transform) は、分布を優れた反集中特性を持つものに変換する演算である。
本稿では,Forster変換が存在し,効率よく計算できる少数の分布の解離混合として,任意の分布を効率的に分解可能であることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:00:59Z) - On the Sample Complexity of Learning with Geometric Stability [42.813141600050166]
対象関数がそのような不変性や安定性を示す学習問題のサンプル複雑性について検討する。
カーネル法における非パラメトリック収束率と,グループの大きさに等しい因子によるサンプル複雑性の改善について述べる。
論文 参考訳(メタデータ) (2021-06-14T03:51:16Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z) - A Nonparametric Test of Dependence Based on Ensemble of Decision Trees [0.0]
提案した係数は、観測されたサンプルS_n : (X_i, Y_i), i = 1の量を定量化する置換様統計量である。
n は置換標本 S_nn : (X_i, Y_j) i, j = 1 から判別可能である。
2つの変数が独立している。
論文 参考訳(メタデータ) (2020-07-24T02:48:33Z) - Interpolation and Learning with Scale Dependent Kernels [91.41836461193488]
非パラメトリックリッジレス最小二乗の学習特性について検討する。
スケール依存カーネルで定義される推定器の一般的な場合を考える。
論文 参考訳(メタデータ) (2020-06-17T16:43:37Z) - Distributed, partially collapsed MCMC for Bayesian Nonparametrics [68.5279360794418]
ディリクレ法やベータ・ベルヌーリ法のようなモデルでよく用いられる完全無作為測度は独立な部分測度に分解可能であるという事実を利用する。
この分解を用いて、潜在測度を、インスタンス化された成分のみを含む有限測度と、他のすべての成分を含む無限測度に分割する。
得られたハイブリッドアルゴリズムは、収束保証を犠牲にすることなくスケーラブルな推論を可能にすることができる。
論文 参考訳(メタデータ) (2020-01-15T23:10:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。