論文の概要: Training Normalizing Flows with the Precision-Recall Divergence
- arxiv url: http://arxiv.org/abs/2302.00628v1
- Date: Wed, 1 Feb 2023 17:46:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 12:39:15.335403
- Title: Training Normalizing Flows with the Precision-Recall Divergence
- Title(参考訳): 高精度リコールダイバージェンスを用いた正規化フローの訓練
- Authors: Alexandre Verine, Benjamin Negrevergne, Muni Sreenivas Pydi, Yann
Chevaleyre
- Abstract要約: 特定精度リコールトレードオフを達成することは、em PR-divergencesと呼ぶ家族からの-divergencesの最小化に相当することを示す。
本稿では, 正規化フローをトレーニングして, 偏差を最小化し, 特に, 所与の高精度リコールトレードオフを実現する新しい生成モデルを提案する。
- 参考スコア(独自算出の注目度): 73.92251251511199
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative models can have distinct mode of failures like mode dropping and
low quality samples, which cannot be captured by a single scalar metric. To
address this, recent works propose evaluating generative models using precision
and recall, where precision measures quality of samples and recall measures the
coverage of the target distribution. Although a variety of discrepancy measures
between the target and estimated distribution are used to train generative
models, it is unclear what precision-recall trade-offs are achieved by various
choices of the discrepancy measures. In this paper, we show that achieving a
specified precision-recall trade-off corresponds to minimising -divergences
from a family we call the {\em PR-divergences }. Conversely, any -divergence
can be written as a linear combination of PR-divergences and therefore
correspond to minimising a weighted precision-recall trade-off. Further, we
propose a novel generative model that is able to train a normalizing flow to
minimise any -divergence, and in particular, achieve a given precision-recall
trade-off.
- Abstract(参考訳): 生成モデルは、モードドロップや低品質のサンプルのような異なる障害モードを持つことができ、単一のスカラーメトリックではキャプチャできない。
そこで本研究では, 試料の質を高精度に測定し, 目標分布のカバレッジを評価するため, 精度とリコールを用いた生成モデルの評価を提案する。
生成モデルの訓練には,目標と推定分布の相違点が多岐にわたって使用されているが,その相違点の選択によって,どの程度の精度・リコールトレードオフが達成されるのかは明らかでない。
本稿では,特定精度リコールトレードオフを達成することは,我々が「.em PR-divergences }」と呼ぶ家族からの発散を最小化することに相当することを示す。
逆に、任意の-divergence は pr-divergences の線形結合として書くことができ、したがって重み付き精度-リコールトレードオフの最小化に対応する。
さらに,正規化フローを訓練し,任意の-divergenceを最小化し,特に与えられた精度-リコールトレードオフを達成する新しい生成モデルを提案する。
関連論文リスト
- DistPred: A Distribution-Free Probabilistic Inference Method for Regression and Forecasting [14.390842560217743]
本稿では、回帰予測タスクのためのDistPredという新しい手法を提案する。
予測分布と対象分布の差分を測定するための適切なスコアリングルールを、微分可能な離散形式に変換する。
これにより、モデルは単一のフォワードパスで多数のサンプルをサンプリングし、応答変数の潜在的分布を推定することができる。
論文 参考訳(メタデータ) (2024-06-17T10:33:00Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Few-Shot Recalibration of Language Models [23.829795148520834]
我々は、任意のスライスからラベルのない例をいくつか取り込んだリカレーションモデルをトレーニングし、信頼度スコアをそのスライスに対してより正確なものに再マップする曲線を予測する。
我々の訓練されたモデルは、そのスライスからラベル付きデータを使わずに、任意の新しいスライスのために再調整できる。
実験により、我々の数発の再校正器は既存の校正方法より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2024-03-27T06:25:40Z) - Accuracy-Preserving Calibration via Statistical Modeling on Probability
Simplex [5.64979077798699]
本稿では, 確率単純度に基づく確率モデルとして, コンクリート分布を用いた精度保存キャリブレーション法を提案する。
提案手法は,ベンチマークを用いてキャリブレーションを精度よく保存する作業において,従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-21T12:39:20Z) - Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - Precision-Recall Divergence Optimization for Generative Modeling with
GANs and Normalizing Flows [54.050498411883495]
本研究では,ジェネレーティブ・アドバイサル・ネットワークや正規化フローなどの生成モデルのための新しいトレーニング手法を開発した。
指定された精度-リコールトレードオフを達成することは、textitPR-divergencesと呼ぶ家族からのユニークな$f$-divergenceを最小化することを意味する。
当社のアプローチは,ImageNetなどのデータセットでテストした場合の精度とリコールの両面で,BigGANのような既存の最先端モデルの性能を向上させる。
論文 参考訳(メタデータ) (2023-05-30T10:07:17Z) - On Calibrating Diffusion Probabilistic Models [78.75538484265292]
拡散確率モデル(DPM)は様々な生成タスクにおいて有望な結果を得た。
そこで本研究では,任意の事前学習DPMを校正する簡単な方法を提案する。
キャリブレーション法は1回だけ行い, 得られたモデルをサンプリングに繰り返し使用することができる。
論文 参考訳(メタデータ) (2023-02-21T14:14:40Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Achieving Efficiency in Black Box Simulation of Distribution Tails with
Self-structuring Importance Samplers [1.6114012813668934]
本稿では,線形プログラムや整数線形プログラム,ピースワイド線形・二次目的,ディープニューラルネットワークで指定された特徴マップなど,多種多様なツールでモデル化されたパフォーマンス指標の分布を推定する,新しいImportance Smpling(IS)方式を提案する。
論文 参考訳(メタデータ) (2021-02-14T03:37:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。