論文の概要: Towards GAN Benchmarks Which Require Generalization
- arxiv url: http://arxiv.org/abs/2001.03653v1
- Date: Fri, 10 Jan 2020 20:18:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 22:45:39.250954
- Title: Towards GAN Benchmarks Which Require Generalization
- Title(参考訳): 一般化を必要とするGANベンチマークに向けて
- Authors: Ishaan Gulrajani, Colin Raffel, Luke Metz
- Abstract要約: 関数を推定するにはモデルからの大きなサンプルが必要であると我々は主張する。
我々は、分布を区別するために訓練されたニューラルネットワークの用語で定義されるニューラルネットワーク分散(NND)に目を向ける。
結果として得られたベンチマークは、トレーニングセットの記憶によって"ウォン"することはできないが、それでも知覚的に相関があり、サンプルからのみ計算可能である。
- 参考スコア(独自算出の注目度): 48.075521136623564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For many evaluation metrics commonly used as benchmarks for unconditional
image generation, trivially memorizing the training set attains a better score
than models which are considered state-of-the-art; we consider this
problematic. We clarify a necessary condition for an evaluation metric not to
behave this way: estimating the function must require a large sample from the
model. In search of such a metric, we turn to neural network divergences
(NNDs), which are defined in terms of a neural network trained to distinguish
between distributions. The resulting benchmarks cannot be "won" by training set
memorization, while still being perceptually correlated and computable only
from samples. We survey past work on using NNDs for evaluation and implement an
example black-box metric based on these ideas. Through experimental validation
we show that it can effectively measure diversity, sample quality, and
generalization.
- Abstract(参考訳): 非条件画像生成のベンチマークとして一般的に用いられる多くの評価指標において、トレーニングセットの記憶は最先端と見なされるモデルよりも良好なスコアが得られる。
評価指標がこのように振る舞わないために必要条件を明らかにする: 関数を推定するには、モデルから大きなサンプルが必要となる。
このようなメトリクスを探索する際、分布を区別するために訓練されたニューラルネットワークの用語で定義されるニューラルネットワーク分散(NND)に目を向ける。
結果として得られたベンチマークは、セットの暗記をトレーニングすることで“悪くなる”ことはできないが、サンプルからのみ知覚的に相関し、計算可能である。
評価にNNDを使うことに関する過去の研究を調査し、これらのアイデアに基づいたブラックボックスメトリクスの例を実装した。
実験により,多様性,サンプル品質,一般化を効果的に測定できることを示す。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Feature Likelihood Divergence: Evaluating the Generalization of
Generative Models Using Samples [25.657798631897908]
Feature Likelihood Divergenceは、生成モデルの包括的なトリコトミック評価を提供する。
我々は,以前に提案された指標が失敗した場合でも,FLDが過度に適合する問題を識別できることを実証的に示す。
論文 参考訳(メタデータ) (2023-02-09T04:57:27Z) - A Statistical Model for Predicting Generalization in Few-Shot
Classification [6.158812834002346]
一般化誤差を予測するために,特徴分布のガウスモデルを導入する。
提案手法は, 相互検証戦略の離脱など, 代替案よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-12-13T10:21:15Z) - Intersection of Parallels as an Early Stopping Criterion [64.8387564654474]
そこで本研究では,検証セットを必要とせずに,トレーニングイテレーションの早期停止点を見つける手法を提案する。
幅広い学習率において,コサイン距離基準 (CDC) と呼ばれる手法は,比較したすべての手法よりも平均的な一般化に寄与する。
論文 参考訳(メタデータ) (2022-08-19T19:42:41Z) - A Study on the Evaluation of Generative Models [19.18642459565609]
潜在的生成モデルは、確率値を返さないが、近年は普及している。
本研究では,高品質な合成データセットの生成による生成モデルの評価指標について検討する。
FIDとISはいくつかのf-divergensと相関するが、クローズドモデルのランクは様々である。
論文 参考訳(メタデータ) (2022-06-22T09:27:31Z) - Compare learning: bi-attention network for few-shot learning [6.559037166322981]
距離学習と呼ばれる数ショットの学習手法の1つは、画像のペアが同じカテゴリに属しているかどうかを判断するために、まず遠距離計量を学習することで、この課題に対処する。
本稿では, インスタンスの埋め込みの類似性を正確に, グローバルかつ効率的に測定できる, Bi-attention Network という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-25T07:39:10Z) - An Empirical Comparison of Instance Attribution Methods for NLP [62.63504976810927]
本研究は,トレーニングサンプルの重要性に関して,異なるインスタンス属性が一致した度合いを評価する。
単純な検索メソッドは、グラデーションベースの方法によって識別されたものと異なるトレーニングインスタンスを生成する。
論文 参考訳(メタデータ) (2021-04-09T01:03:17Z) - ATRM: Attention-based Task-level Relation Module for GNN-based Few-shot
Learning [14.464964336101028]
注目に基づくタスクレベル関係モジュール(ATRM)という新しい関係測定法を提案する。
提案モジュールは,サンプルからサンプルへの埋め込み機能ではなく,サンプルからタスクまでを考慮し,ノード間の関係表現をキャプチャする。
実験結果から,提案モジュールはGNNによる少数ショット学習に有効であることが示された。
論文 参考訳(メタデータ) (2021-01-25T00:53:04Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。