論文の概要: Probabilistic matching of real and generated data statistics in
generative adversarial networks
- arxiv url: http://arxiv.org/abs/2306.10943v1
- Date: Mon, 19 Jun 2023 14:03:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 17:37:53.558910
- Title: Probabilistic matching of real and generated data statistics in
generative adversarial networks
- Title(参考訳): 生成逆数ネットワークにおける実・実データ統計量の確率的マッチング
- Authors: Philipp Pilar, Niklas Wahlstr\"om
- Abstract要約: 本稿では,あるデータ統計量の分布が実データの分布と一致することを確実にする手法を提案する。
提案手法を合成データセットと実世界の2つのデータセットで評価し,提案手法の性能向上を実証した。
- 参考スコア(独自算出の注目度): 0.30458514384586394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks constitute a powerful approach to generative
modeling. While generated samples often are indistinguishable from real data,
there is no guarantee that they will follow the true data distribution. In this
work, we propose a method to ensure that the distributions of certain generated
data statistics coincide with the respective distributions of the real data. In
order to achieve this, we add a Kullback-Leibler term to the generator loss
function: the KL divergence is taken between the true distributions as
represented by a conditional energy-based model, and the corresponding
generated distributions obtained from minibatch values at each iteration. We
evaluate the method on a synthetic dataset and two real-world datasets and
demonstrate improved performance of our method.
- Abstract(参考訳): 生成逆ネットワークは生成モデリングに対する強力なアプローチを構成する。
生成されたサンプルは実データと区別できないことが多いが、真のデータ分布に従う保証はない。
本研究では,生成されたデータ統計の分布が実データの分布と一致していることを保証する手法を提案する。
これを達成するために、生成元損失関数にKullback-Leibler項を追加し、条件エネルギーベースモデルで表される真の分布と、各イテレーションでミニバッチ値から得られた対応する分布との間にKLの発散を取らせる。
本手法は,合成データセットと実世界の2つのデータセットで評価し,性能の向上を示す。
関連論文リスト
- Deep Generative Sampling in the Dual Divergence Space: A Data-efficient & Interpretative Approach for Generative AI [29.13807697733638]
自然画像の生成的サンプリングにおける顕著な成果の上に構築する。
我々は、画像に似たサンプルを生成するという、画期的な挑戦を、潜在的に過度に野心的に提案する。
統計上の課題は、小さなサンプルサイズであり、時には数百人の被験者で構成されている。
論文 参考訳(メタデータ) (2024-04-10T22:35:06Z) - Uncertainty Quantification via Stable Distribution Propagation [60.065272548502]
本稿では,ニューラルネットワークによる安定確率分布の伝播手法を提案する。
提案手法は局所線形化に基づいており,ReLU非線型性に対する全変動距離の近似値として最適であることを示す。
論文 参考訳(メタデータ) (2024-02-13T09:40:19Z) - Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - R-divergence for Estimating Model-oriented Distribution Discrepancy [37.939239477868796]
モデル指向分布の相違性を評価するために設計されたR分割を導入する。
R-発散は混合データ上で最小の仮説を学習し、その間に経験的リスク差を測る。
教師なしタスクおよび教師なしタスクにおけるテストパワーの評価を行い、R分割が最先端のパフォーマンスを達成することを確認する。
論文 参考訳(メタデータ) (2023-10-02T11:30:49Z) - Guaranteed Optimal Generative Modeling with Maximum Deviation from the
Empirical Distribution [0.0]
ジェネレーティブ・モデリング(Generative Modeling)は、科学および産業分野で様々な用途に応用された機械学習手法である。
その主な目的は、トレーニングデータから得られた未知の分布から引き出された新しいサンプルをシミュレートし、多様性を確保し、トレーニングデータからのサンプルの複製を避けることである。
本稿では, 実データ生成分布を学習データ生成分布に置き換える誤差は, サンプルサイズが無限大に近づくにつれて, 最適に0に収束する必要があり, トレーニングデータ中の任意の分布複製例から, 学習データ生成分布が十分遠く離れるべきである,という2つの特性を持つ生成モデルのトレーニングに関する理論的知見を示す。
論文 参考訳(メタデータ) (2023-07-31T06:11:57Z) - Score Approximation, Estimation and Distribution Recovery of Diffusion
Models on Low-Dimensional Data [68.62134204367668]
本稿では,未知の低次元線形部分空間上でデータをサポートする場合の拡散モデルのスコア近似,推定,分布回復について検討する。
適切に選択されたニューラルネットワークアーキテクチャでは、スコア関数を正確に近似し、効率的に推定することができる。
推定スコア関数に基づいて生成された分布は、データ幾何学構造を捕捉し、データ分布の近傍に収束する。
論文 参考訳(メタデータ) (2023-02-14T17:02:35Z) - Unsupervised Learning of Sampling Distributions for Particle Filters [80.6716888175925]
観測結果からサンプリング分布を学習する4つの方法を提案する。
実験により、学習されたサンプリング分布は、設計された最小縮退サンプリング分布よりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2023-02-02T15:50:21Z) - Data-Driven Approximations of Chance Constrained Programs in
Nonstationary Environments [3.126118485851773]
確率制約プログラムのサンプル平均近似(SAA)について検討する。
この問題の非定常変種を考えると、ランダムサンプルは逐次的に独立に描画されると仮定される。
本稿では,データ生成分布列と実確率制約分布との間のワッサーシュタイン距離の情報を利用した,ロバストなSAA手法を提案する。
論文 参考訳(メタデータ) (2022-05-08T01:01:57Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - GENs: Generative Encoding Networks [4.269725092203672]
本稿では,未知のデータ分布と未知のターゲット分布を一致させるために,Jensen-Shannon分散を推定するための非パラメトリック密度法を提案し,解析する。
この分析法には、サンプル量のトレーニングが低いときのより良い振舞い、証明可能な収束特性、比較的少ないパラメータ、分析的に導出できるパラメータなど、いくつかの利点がある。
論文 参考訳(メタデータ) (2020-10-28T23:40:03Z) - Distribution Approximation and Statistical Estimation Guarantees of
Generative Adversarial Networks [82.61546580149427]
GAN(Generative Adversarial Networks)は教師なし学習において大きな成功を収めている。
本稿では,H'older空間における密度データ分布推定のためのGANの近似と統計的保証を提供する。
論文 参考訳(メタデータ) (2020-02-10T16:47:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。