論文の概要: Pros and Cons of GAN Evaluation Measures: New Developments
- arxiv url: http://arxiv.org/abs/2103.09396v1
- Date: Wed, 17 Mar 2021 01:48:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-18 21:11:21.611618
- Title: Pros and Cons of GAN Evaluation Measures: New Developments
- Title(参考訳): GAN評価の課題と課題 : 新たな展開
- Authors: Ali Borji
- Abstract要約: この作品は、数年前に発表された同じトピックに関する以前の論文の更新です。
モデル評価において重要になっている新しい次元について述べ、GAN評価とディープフェイクの関係について論じる。
- 参考スコア(独自算出の注目度): 53.10151901863263
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work is an update of a previous paper on the same topic published a few
years ago. With the dramatic progress in generative modeling, a suite of new
quantitative and qualitative techniques to evaluate models has emerged.
Although some measures such as Inception Score, Fr\'echet Inception Distance,
Precision-Recall, and Perceptual Path Length are relatively more popular, GAN
evaluation is not a settled issue and there is still room for improvement. For
example, in addition to quality and diversity of synthesized images, generative
models should be evaluated in terms of bias and fairness. I describe new
dimensions that are becoming important in assessing models, and discuss the
connection between GAN evaluation and deepfakes.
- Abstract(参考訳): この研究は数年前に発表された同じトピックに関する以前の論文の更新である。
生成モデリングの劇的な進歩により、モデルを評価するための新しい量的および質的なテクニックが出現した。
インセプションスコア、Fr'echet Inception Distance、Precision-Recall、Perceptual Path Longthなどの指標は比較的人気があるが、GAN評価は解決された問題ではなく改善の余地がある。
例えば、合成画像の品質と多様性に加えて、生成モデルはバイアスと公平性の観点から評価されるべきである。
モデル評価において重要になっている新しい次元について述べ、GAN評価とディープフェイクの関係について論じる。
関連論文リスト
- Benchmarking the Attribution Quality of Vision Models [13.255247017616687]
本稿では,広く使用されているインクリメンタル削除プロトコルの2つの基本的な限界を克服する新しい評価プロトコルを提案する。
これにより、23の帰属手法と8つの異なる視覚モデルの設計選択が帰属品質にどのように影響するかを評価することができる。
本研究は,本質的に説明可能なモデルが標準モデルより優れており,生の帰属値が従来よりも高い帰属品質を示すことを発見した。
論文 参考訳(メタデータ) (2024-07-16T17:02:20Z) - QualEval: Qualitative Evaluation for Model Improvement [82.73561470966658]
モデル改善のための手段として,自動定性評価による定量的スカラー指標を付加するQualEvalを提案する。
QualEvalは強力なLCM推論器と新しいフレキシブルリニアプログラミングソルバを使用して、人間の読みやすい洞察を生成する。
例えば、その洞察を活用することで、Llama 2モデルの絶対性能が最大15%向上することを示す。
論文 参考訳(メタデータ) (2023-11-06T00:21:44Z) - Operationalizing Specifications, In Addition to Test Sets for Evaluating
Constrained Generative Models [17.914521288548844]
生成モデルのスケールは、評価自体が実行される抽象レベルを高めるために利用することができると論じる。
我々の勧告は、生成品質を評価するための強力な手段として仕様を活用することに基づいている。
論文 参考訳(メタデータ) (2022-11-19T06:39:43Z) - Are Neural Topic Models Broken? [81.15470302729638]
トピックモデルの自動評価と人的評価の関係について検討する。
ニューラルトピックモデルは、確立された古典的手法と比較して、両方の点においてより悪くなる。
論文 参考訳(メタデータ) (2022-10-28T14:38:50Z) - Image Quality Assessment in the Modern Age [53.19271326110551]
本チュートリアルは、画像品質評価(IQA)の基礎的理論、方法論、現状の進歩を聴衆に提供する。
まず,視覚刺激を適切に選択する方法に着目し,主観的品質評価手法を再考する。
手書きのエンジニアリングと(深い)学習ベースの手法の両方をカバーします。
論文 参考訳(メタデータ) (2021-10-19T02:38:46Z) - Who Explains the Explanation? Quantitatively Assessing Feature
Attribution Methods [0.0]
本稿では,説明の忠実度を定量化するための新しい評価指標であるフォーカス(Focus)を提案する。
ランダム化実験によって測定値のロバスト性を示し、次にFocusを用いて3つの一般的な説明可能性手法を評価し比較する。
実験の結果,LRPとGradCAMは一貫性があり信頼性が高いことがわかった。
論文 参考訳(メタデータ) (2021-09-28T07:10:24Z) - Instance-Level Relative Saliency Ranking with Graph Reasoning [126.09138829920627]
そこで本研究では,有意な事例を分割し,相対的有意な有意なランク順序を推定するための統一モデルを提案する。
また、サラレンシーランキングブランチを効果的にトレーニングするために、新しい損失関数も提案されている。
実験の結果,提案手法は従来の手法よりも有効であることがわかった。
論文 参考訳(メタデータ) (2021-07-08T13:10:42Z) - Regression or Classification? New Methods to Evaluate No-Reference
Picture and Video Quality Models [45.974399400141685]
粗いレベルでの非参照品質モデルの評価と比較のための2つの新しい手法を提案する。
我々は、最近の画像とビデオの品質データセットに基づいて、人気のあるノン参照品質モデルのベンチマーク実験を行う。
論文 参考訳(メタデータ) (2021-01-30T05:40:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。