論文の概要: Training Normalizing Flows with the Precision-Recall Divergence
- arxiv url: http://arxiv.org/abs/2302.00628v2
- Date: Thu, 2 Feb 2023 16:46:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 16:34:47.685910
- Title: Training Normalizing Flows with the Precision-Recall Divergence
- Title(参考訳): 高精度リコールダイバージェンスを用いた正規化フローの訓練
- Authors: Alexandre Verine, Benjamin Negrevergne, Muni Sreenivas Pydi, Yann
Chevaleyre
- Abstract要約: 特定精度リコールトレードオフを達成することは、em PR-divergencesと呼ぶ家族からの-divergencesの最小化に相当することを示す。
本稿では, 正規化フローをトレーニングして, 偏差を最小化し, 特に, 所与の高精度リコールトレードオフを実現する新しい生成モデルを提案する。
- 参考スコア(独自算出の注目度): 73.92251251511199
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative models can have distinct mode of failures like mode dropping and
low quality samples, which cannot be captured by a single scalar metric. To
address this, recent works propose evaluating generative models using precision
and recall, where precision measures quality of samples and recall measures the
coverage of the target distribution. Although a variety of discrepancy measures
between the target and estimated distribution are used to train generative
models, it is unclear what precision-recall trade-offs are achieved by various
choices of the discrepancy measures. In this paper, we show that achieving a
specified precision-recall trade-off corresponds to minimising -divergences
from a family we call the {\em PR-divergences }. Conversely, any -divergence
can be written as a linear combination of PR-divergences and therefore
correspond to minimising a weighted precision-recall trade-off. Further, we
propose a novel generative model that is able to train a normalizing flow to
minimise any -divergence, and in particular, achieve a given precision-recall
trade-off.
- Abstract(参考訳): 生成モデルは、モードドロップや低品質のサンプルのような異なる障害モードを持つことができ、単一のスカラーメトリックではキャプチャできない。
そこで本研究では, 試料の質を高精度に測定し, 目標分布のカバレッジを評価するため, 精度とリコールを用いた生成モデルの評価を提案する。
生成モデルの訓練には,目標と推定分布の相違点が多岐にわたって使用されているが,その相違点の選択によって,どの程度の精度・リコールトレードオフが達成されるのかは明らかでない。
本稿では,特定精度リコールトレードオフを達成することは,我々が「.em PR-divergences }」と呼ぶ家族からの発散を最小化することに相当することを示す。
逆に、任意の-divergence は pr-divergences の線形結合として書くことができ、したがって重み付き精度-リコールトレードオフの最小化に対応する。
さらに,正規化フローを訓練し,任意の-divergenceを最小化し,特に与えられた精度-リコールトレードオフを達成する新しい生成モデルを提案する。
関連論文リスト
- Accuracy-Preserving Calibration via Statistical Modeling on Probability
Simplex [5.64979077798699]
本稿では, 確率単純度に基づく確率モデルとして, コンクリート分布を用いた精度保存キャリブレーション法を提案する。
提案手法は,ベンチマークを用いてキャリブレーションを精度よく保存する作業において,従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-21T12:39:20Z) - Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - Precision-Recall Divergence Optimization for Generative Modeling with
GANs and Normalizing Flows [54.050498411883495]
本研究では,ジェネレーティブ・アドバイサル・ネットワークや正規化フローなどの生成モデルのための新しいトレーニング手法を開発した。
指定された精度-リコールトレードオフを達成することは、textitPR-divergencesと呼ぶ家族からのユニークな$f$-divergenceを最小化することを意味する。
当社のアプローチは,ImageNetなどのデータセットでテストした場合の精度とリコールの両面で,BigGANのような既存の最先端モデルの性能を向上させる。
論文 参考訳(メタデータ) (2023-05-30T10:07:17Z) - On Calibrating Diffusion Probabilistic Models [78.75538484265292]
拡散確率モデル(DPM)は様々な生成タスクにおいて有望な結果を得た。
そこで本研究では,任意の事前学習DPMを校正する簡単な方法を提案する。
キャリブレーション法は1回だけ行い, 得られたモデルをサンプリングに繰り返し使用することができる。
論文 参考訳(メタデータ) (2023-02-21T14:14:40Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Achieving Efficiency in Black Box Simulation of Distribution Tails with
Self-structuring Importance Samplers [1.6114012813668934]
本稿では,線形プログラムや整数線形プログラム,ピースワイド線形・二次目的,ディープニューラルネットワークで指定された特徴マップなど,多種多様なツールでモデル化されたパフォーマンス指標の分布を推定する,新しいImportance Smpling(IS)方式を提案する。
論文 参考訳(メタデータ) (2021-02-14T03:37:22Z) - Novelty Detection via Robust Variational Autoencoding [13.664682865991255]
本稿では,トレーニングポイントの破壊を許容する新規性検出法を提案する。
本手法は,非破壊訓練点のモデルを生成することを目的とした,ロバストな変分オートエンコーダ(VAE)を訓練する。
論文 参考訳(メタデータ) (2020-06-09T22:34:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。