論文の概要: Probabilistic Precision and Recall Towards Reliable Evaluation of
Generative Models
- arxiv url: http://arxiv.org/abs/2309.01590v1
- Date: Mon, 4 Sep 2023 13:19:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 18:32:15.595792
- Title: Probabilistic Precision and Recall Towards Reliable Evaluation of
Generative Models
- Title(参考訳): 生成モデルの信頼性評価に向けた確率論的精度とリコール
- Authors: Dogyun Park, Suhyun Kim
- Abstract要約: 問題に対処する確率論的アプローチに基づいて,P-precision and P-recall (PP&PR)を提案する。
我々のPP&PRは、既存の指標よりも忠実度と多様性を比較するための信頼性の高い見積もりを提供することを示す。
- 参考スコア(独自算出の注目度): 7.770029179741429
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Assessing the fidelity and diversity of the generative model is a difficult
but important issue for technological advancement. So, recent papers have
introduced k-Nearest Neighbor ($k$NN) based precision-recall metrics to break
down the statistical distance into fidelity and diversity. While they provide
an intuitive method, we thoroughly analyze these metrics and identify
oversimplified assumptions and undesirable properties of kNN that result in
unreliable evaluation, such as susceptibility to outliers and insensitivity to
distributional changes. Thus, we propose novel metrics, P-precision and
P-recall (PP\&PR), based on a probabilistic approach that address the problems.
Through extensive investigations on toy experiments and state-of-the-art
generative models, we show that our PP\&PR provide more reliable estimates for
comparing fidelity and diversity than the existing metrics. The codes are
available at \url{https://github.com/kdst-team/Probablistic_precision_recall}.
- Abstract(参考訳): 生成モデルの忠実性と多様性を評価することは、技術的進歩にとって難しいが重要な問題である。
そこで最近の論文では、k-Nearest Neighbor(k$NN)ベースの高精度リコールメトリクスを導入して、統計的距離を忠実度と多様性に分解した。
直感的な手法を提供する一方で,これらの指標を徹底的に分析し,不確実性や分布変化に対する非感受性など,信頼性の低いknの過単純化された仮定と望ましくない性質を同定する。
そこで本稿では,P-precision and P-recall (PP\&PR) という新しい指標を提案する。
玩具実験と最先端生成モデルに関する広範な調査を通じて,我々のPP\&PRは,既存の指標よりも忠実度と多様性を比較する上で,より信頼性の高い推定値を提供することを示した。
コードは \url{https://github.com/kdst-team/probablistic_precision_recall} で入手できる。
関連論文リスト
- Continuous Bayesian Model Selection for Multivariate Causal Discovery [22.945274948173182]
現在の因果的発見アプローチは、構造的識別可能性を確保するために、限定的なモデル仮定や介入データへのアクセスを必要とする。
近年の研究では、ベイズモデルの選択はより柔軟な仮定のために制限的モデリングを交換することで精度を大幅に向上させることができることが示されている。
合成データセットと実世界のデータセットの両方において、我々のアプローチの競争力を実証する。
論文 参考訳(メタデータ) (2024-11-15T12:55:05Z) - Measuring and Modeling Uncertainty Degree for Monocular Depth Estimation [50.920911532133154]
単分子深度推定モデル(MDE)の本質的な不適切さと順序感性は、不確かさの程度を推定する上で大きな課題となる。
本稿では,MDEモデルの不確かさを固有確率分布の観点からモデル化する。
新たなトレーニング正規化用語を導入することで、驚くほど単純な構成で、余分なモジュールや複数の推論を必要とせずに、最先端の信頼性で不確実性を推定できる。
論文 参考訳(メタデータ) (2023-07-19T12:11:15Z) - On Uncertainty Calibration and Selective Generation in Probabilistic
Neural Summarization: A Benchmark Study [14.041071717005362]
要約のための最新のディープモデルは、優れたベンチマーク性能を得るが、誤校正された予測の不確実性を生成する傾向にある。
これは、低品質の予測に高い信頼性を割り当て、現実世界のアプリケーションにおける信頼性と信頼性を損なうことを意味する。
確率的深層学習法は誤校正問題の一般的な解法であるが, 複雑な自己回帰的要約タスクにおける相対的有効性はよく理解されていない。
論文 参考訳(メタデータ) (2023-04-17T23:06:28Z) - How Reliable is Your Regression Model's Uncertainty Under Real-World
Distribution Shifts? [46.05502630457458]
本研究では,異なるタイプの分散シフトを伴う8つの画像ベース回帰データセットのベンチマークを提案する。
分散シフトがない場合、メソッドは十分に校正されているが、ベンチマークデータセットの多くに非常に自信が持たれていることが分かっています。
論文 参考訳(メタデータ) (2023-02-07T18:54:39Z) - Do Bayesian Variational Autoencoders Know What They Don't Know? [0.6091702876917279]
OoD(Out-of-Distribution)入力を検出する問題は、ディープニューラルネットワークにとって最重要課題である。
入力の密度を推定できる深部生成モデルでさえ、信頼できない可能性があることが以前に示されている。
本稿では,マルコフ連鎖モンテカルロ,バックプロパゲーションによるベイズ勾配,およびウェイト平均ガウスの3つの推論手法について検討する。
論文 参考訳(メタデータ) (2022-12-29T11:48:01Z) - PDC-Net+: Enhanced Probabilistic Dense Correspondence Network [161.76275845530964]
高度確率密度対応ネットワーク(PDC-Net+)は、精度の高い高密度対応を推定できる。
我々は、堅牢で一般化可能な不確実性予測に適したアーキテクチャと強化されたトレーニング戦略を開発する。
提案手法は,複数の挑戦的幾何マッチングと光学的フローデータセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-09-28T17:56:41Z) - Robust Out-of-Distribution Detection on Deep Probabilistic Generative
Models [0.06372261626436676]
アウト・オブ・ディストリビューション(OOD)検出は機械学習システムにおいて重要な課題である。
深い確率的生成モデルは、データサンプルの可能性を推定することによって、OODの検出を容易にする。
本稿では,外周露光を伴わない新しい検出指標を提案する。
論文 参考訳(メタデータ) (2021-06-15T06:36:10Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Evaluating probabilistic classifiers: Reliability diagrams and score
decompositions revisited [68.8204255655161]
確率的に統計的に一貫性があり、最適に結合し、再現可能な信頼性図を自動生成するCORP手法を導入する。
コーパスは非パラメトリックアイソトニック回帰に基づいており、プール・アジャセント・ヴァイオレータ(PAV)アルゴリズムによって実装されている。
論文 参考訳(メタデータ) (2020-08-07T08:22:26Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。