論文の概要: Divergence Frontiers for Generative Models: Sample Complexity,
Quantization Level, and Frontier Integral
- arxiv url: http://arxiv.org/abs/2106.07898v1
- Date: Tue, 15 Jun 2021 06:26:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-16 15:28:01.203218
- Title: Divergence Frontiers for Generative Models: Sample Complexity,
Quantization Level, and Frontier Integral
- Title(参考訳): 生成モデルにおける分岐フロンティア:サンプル複雑性、量子化レベル、フロンティア積分
- Authors: Lang Liu, Krishna Pillutla, Sean Welleck, Sewoong Oh, Yejin Choi, Zaid
Harchaoui
- Abstract要約: 多様性フロンティアは生成モデルの評価フレームワークとして提案されている。
分岐フロンティアのプラグイン推定器のサンプル複雑性の非漸近的境界を確立する。
また,スムーズな分布推定器の統計的性能を調べることにより,分散フロンティアの枠組みも強化する。
- 参考スコア(独自算出の注目度): 58.434753643798224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The spectacular success of deep generative models calls for quantitative
tools to measure their statistical performance. Divergence frontiers have
recently been proposed as an evaluation framework for generative models, due to
their ability to measure the quality-diversity trade-off inherent to deep
generative modeling. However, the statistical behavior of divergence frontiers
estimated from data remains unknown to this day. In this paper, we establish
non-asymptotic bounds on the sample complexity of the plug-in estimator of
divergence frontiers. Along the way, we introduce a novel integral summary of
divergence frontiers. We derive the corresponding non-asymptotic bounds and
discuss the choice of the quantization level by balancing the two types of
approximation errors arisen from its computation. We also augment the
divergence frontier framework by investigating the statistical performance of
smoothed distribution estimators such as the Good-Turing estimator. We
illustrate the theoretical results with numerical examples from natural
language processing and computer vision.
- Abstract(参考訳): 深層生成モデルの壮大な成功は、その統計性能を測定するための定量的ツールを求めている。
ダイバージェンスフロンティアは、深層生成モデルに固有の品質多様性のトレードオフを測定する能力があるため、生成モデルの評価フレームワークとして最近提案されている。
しかし、データから推定される分岐フロンティアの統計的な挙動は今日まで不明である。
本稿では,分岐フロンティアのプラグイン推定器のサンプル複雑性の非漸近的境界を確立する。
その過程で,発散フロンティアの新たな統合要約を紹介する。
対応する非漸近境界を導出し、その計算から生じる2種類の近似誤差のバランスをとることにより、量子化レベルの選択について議論する。
また,good-turing estimatorのような平滑化分布推定器の統計性能を調べることにより,分岐フロンティアの枠組みを補強する。
自然言語処理とコンピュータビジョンの数値例を用いて理論的結果を示す。
関連論文リスト
- A Likelihood Based Approach to Distribution Regression Using Conditional Deep Generative Models [6.647819824559201]
本研究では,条件付き深部生成モデルの推定のための可能性に基づくアプローチの大規模サンプル特性について検討する。
その結果,条件分布を推定するための最大極大推定器の収束率を導いた。
論文 参考訳(メタデータ) (2024-10-02T20:46:21Z) - Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - Model Free Prediction with Uncertainty Assessment [7.524024486998338]
そこで本研究では,深部推定パラダイムを条件付き平均推定を行うプラットフォームに変換する新しいフレームワークを提案する。
本研究では, 条件付き拡散モデルに対する終端収束率を開発し, 生成した試料の正規性を確立する。
数値実験により,提案手法の有効性を実証的に検証した。
論文 参考訳(メタデータ) (2024-05-21T11:19:50Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Doubly Robust Inference in Causal Latent Factor Models [12.116813197164047]
本稿では、多数の単位と結果を含む現代データ豊富な環境において、観測不能なコンファウンディングの下での平均処理効果を推定する新しい手法を提案する。
有限サンプル重み付けと保証を導出し、新しい推定器の誤差がパラメトリック速度で平均ゼロガウス分布に収束することを示す。
論文 参考訳(メタデータ) (2024-02-18T17:13:46Z) - Statistically Optimal Generative Modeling with Maximum Deviation from the Empirical Distribution [2.1146241717926664]
本稿では, 左非可逆なプッシュフォワード写像に制約されたワッサーシュタインGANが, 複製を回避し, 経験的分布から著しく逸脱する分布を生成することを示す。
我々の最も重要な寄与は、生成分布と経験的分布の間のワッサーシュタイン-1距離の有限サンプル下界を与える。
また、生成分布と真のデータ生成との距離に有限サンプル上限を確立する。
論文 参考訳(メタデータ) (2023-07-31T06:11:57Z) - Convergence of uncertainty estimates in Ensemble and Bayesian sparse
model discovery [4.446017969073817]
ブートストラップに基づく逐次しきい値最小二乗推定器による雑音に対する精度と頑健性の観点から経験的成功を示す。
このブートストラップに基づくアンサンブル手法は,誤差率の指数収束率で,確率的に正しい可変選択を行うことができることを示す。
論文 参考訳(メタデータ) (2023-01-30T04:07:59Z) - Probabilistic Circuits for Variational Inference in Discrete Graphical
Models [101.28528515775842]
変分法による離散的グラフィカルモデルの推論は困難である。
エビデンス・ロウアーバウンド(ELBO)を推定するためのサンプリングに基づく多くの手法が提案されている。
Sum Product Networks (SPN) のような確率的回路モデルのトラクタビリティを活用する新しい手法を提案する。
選択的SPNが表現的変動分布として適していることを示し、対象モデルの対数密度が重み付けされた場合、対応するELBOを解析的に計算可能であることを示す。
論文 参考訳(メタデータ) (2020-10-22T05:04:38Z) - Instability, Computational Efficiency and Statistical Accuracy [101.32305022521024]
我々は,人口レベルでのアルゴリズムの決定論的収束率と,$n$サンプルに基づく経験的対象に適用した場合の(不安定性)の間の相互作用に基づいて,統計的精度を得るフレームワークを開発する。
本稿では,ガウス混合推定,非線形回帰モデル,情報的非応答モデルなど,いくつかの具体的なモデルに対する一般結果の応用について述べる。
論文 参考訳(メタデータ) (2020-05-22T22:30:52Z) - Efficient Ensemble Model Generation for Uncertainty Estimation with
Bayesian Approximation in Segmentation [74.06904875527556]
アンサンブルセグメンテーションモデルを構築するための汎用的で効率的なセグメンテーションフレームワークを提案する。
提案手法では,層選択法を用いて効率よくアンサンブルモデルを生成することができる。
また,新たな画素単位の不確実性損失を考案し,予測性能を向上する。
論文 参考訳(メタデータ) (2020-05-21T16:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。