論文の概要: Influence Estimation for Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2101.08367v1
- Date: Wed, 20 Jan 2021 23:55:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 01:33:06.083985
- Title: Influence Estimation for Generative Adversarial Networks
- Title(参考訳): 生成型adversarial networkにおける影響推定
- Authors: Naoyuki Terashita, Hiroki Ohashi, Yuichi Nonaka, Takashi Kanemaru
- Abstract要約: 以前のアプローチでは、トレーニングインスタンスの欠如が直接損失値に影響を与える必要がある。
我々は,gan評価基準がどのような変化を期待するかに基づいて,各トレーニングインスタンスの有害性を評価する新しい評価手法を提案する。
- 参考スコア(独自算出の注目度): 0.4014524824655105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identifying harmful instances, whose absence in a training dataset improves
model performance, is important for building better machine learning models.
Although previous studies have succeeded in estimating harmful instances under
supervised settings, they cannot be trivially extended to generative
adversarial networks (GANs). This is because previous approaches require that
(1) the absence of a training instance directly affects the loss value and that
(2) the change in the loss directly measures the harmfulness of the instance
for the performance of a model. In GAN training, however, neither of the
requirements is satisfied. This is because, (1) the generator's loss is not
directly affected by the training instances as they are not part of the
generator's training steps, and (2) the values of GAN's losses normally do not
capture the generative performance of a model. To this end, (1) we propose an
influence estimation method that uses the Jacobian of the gradient of the
generator's loss with respect to the discriminator's parameters (and vice
versa) to trace how the absence of an instance in the discriminator's training
affects the generator's parameters, and (2) we propose a novel evaluation
scheme, in which we assess harmfulness of each training instance on the basis
of how GAN evaluation metric (e.g., inception score) is expect to change due to
the removal of the instance. We experimentally verified that our influence
estimation method correctly inferred the changes in GAN evaluation metrics.
Further, we demonstrated that the removal of the identified harmful instances
effectively improved the model's generative performance with respect to various
GAN evaluation metrics.
- Abstract(参考訳): トレーニングデータセットに存在しない有害なインスタンスを特定することは、よりよい機械学習モデルを構築する上で重要である。
従来の研究では、教師付き設定下で有害なインスタンスを推定することに成功したが、GAN(Generative Adversarial Network)に自明に拡張することはできない。
これは,(1) トレーニングインスタンスの欠如が損失値に直接影響を及ぼすこと,(2) 損失の変化がモデルの実行に対するインスタンスの有害性を直接測定すること,という従来のアプローチが求められているためである。
しかし、GANトレーニングでは、どちらの要件も満たされていない。
これは、(1)ジェネレータの損失は、ジェネレータのトレーニングステップの一部ではないため、トレーニングインスタンスに直接影響されず、(2)GANの損失の値は、通常モデルの生成性能を捉えないためである。
To this end, (1) we propose an influence estimation method that uses the Jacobian of the gradient of the generator's loss with respect to the discriminator's parameters (and vice versa) to trace how the absence of an instance in the discriminator's training affects the generator's parameters, and (2) we propose a novel evaluation scheme, in which we assess harmfulness of each training instance on the basis of how GAN evaluation metric (e.g., inception score) is expect to change due to the removal of the instance.
提案手法がGAN評価指標の変化を正確に推定できることを実験的に検証した。
さらに, 同定された有害事象の除去により, GAN評価指標に対するモデル生成性能が向上することが実証された。
関連論文リスト
- Individualized Policy Evaluation and Learning under Clustered Network
Interference [4.560284382063488]
クラスタ化されたネットワーク干渉下での最適個別化処理ルールの評価と学習の問題点を考察する。
ITRの実証性能を評価するための推定器を提案する。
学習ITRに対する有限サンプル残差を導出し、効率的な評価推定器の使用により学習ポリシーの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-11-04T17:58:24Z) - Time-series Generation by Contrastive Imitation [87.51882102248395]
モーメントマッチングの目的によってモチベーションされ、複合的エラーを軽減し、局所的(しかし前方的な)遷移ポリシーを最適化する。
推論において、学習されたポリシーは反復的なサンプリングのジェネレータとして機能し、学習されたエネルギーはサンプルの品質を評価するための軌道レベル尺度として機能する。
論文 参考訳(メタデータ) (2023-11-02T16:45:25Z) - Adapt then Unlearn: Exploiting Parameter Space Semantics for Unlearning
in Generative Adversarial Networks [5.479797073162603]
GANのパラメータ空間は、特定の望ましくない特徴を抑えるために活用できる有意義な方向を示す。
提案手法は「Adapt-then-Unlearn」と呼ばれ、望ましくない特徴を学習すると同時に、生成したサンプルの品質も維持する。
本手法は,初期段階において,ユーザが提供した負のサンプルを用いて事前学習したGANを適応させ,その後段階において,望ましくない特徴を学習することに集中する。
論文 参考訳(メタデータ) (2023-09-25T11:36:20Z) - Augmentation-Aware Self-Supervision for Data-Efficient GAN Training [68.81471633374393]
識別器が過度に適合する傾向があるため、限られたデータでGANを訓練することは困難である。
本稿では,拡張データの拡張パラメータを予測する,拡張型自己教師型識別器を提案する。
本稿では,クラス条件の BigGAN と非条件の StyleGAN2 アーキテクチャを用いた State-of-the-art (SOTA) 手法と比較する。
論文 参考訳(メタデータ) (2022-05-31T10:35:55Z) - Monitoring Model Deterioration with Explainable Uncertainty Estimation
via Non-parametric Bootstrap [0.0]
一度デプロイされた機械学習モデルを監視することは難しい。
ラベル付きデータが到達範囲を超えている場合、実際のシナリオでモデルをいつ再トレーニングするかを判断するのはさらに難しい。
本研究では,非パラメトリックブートストラップ型不確実性推定とSHAP値を用いて説明可能な不確実性推定を行う。
論文 参考訳(メタデータ) (2022-01-27T17:23:04Z) - Efficient Estimation of Influence of a Training Instance [56.29080605123304]
本稿では,ニューラルネットワークモデルに対するトレーニングインスタンスの影響を効率的に推定する手法を提案する。
このメソッドは、サブネットワークをゼロマスクし、サブネットワークが各トレーニングインスタンスを学習するのを防ぎます。
提案手法は, 学習の影響を捉え, 誤り予測の解釈性を高め, 一般化改善のための訓練データセットをクリーン化できることを実証する。
論文 参考訳(メタデータ) (2020-12-08T04:31:38Z) - Estimating Generalization under Distribution Shifts via Domain-Invariant
Representations [75.74928159249225]
未知の真のターゲットラベルのプロキシとして、ドメイン不変の予測器のセットを使用します。
結果として生じるリスク見積の誤差は、プロキシモデルのターゲットリスクに依存する。
論文 参考訳(メタデータ) (2020-07-06T17:21:24Z) - How Training Data Impacts Performance in Learning-based Control [67.7875109298865]
本稿では,トレーニングデータの密度と制御性能の関係を考察する。
データセットの品質尺度を定式化し、$rho$-gap と呼ぶ。
フィードバック線形化制御法に$rho$-gapを適用する方法を示す。
論文 参考訳(メタデータ) (2020-05-25T12:13:49Z) - Learning to Predict Error for MRI Reconstruction [67.76632988696943]
提案手法による予測の不確実性は予測誤差と強く相関しないことを示す。
本稿では,2段階の予測誤差の目標ラベルと大小を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-13T15:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。