論文の概要: Data Cleansing for GANs
- arxiv url: http://arxiv.org/abs/2504.00603v1
- Date: Tue, 01 Apr 2025 10:02:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:25:55.005767
- Title: Data Cleansing for GANs
- Title(参考訳): GANのためのデータクリーニング
- Authors: Naoyuki Terashita, Hiroki Ohashi, Satoshi Hara,
- Abstract要約: 機械学習タスクに適用可能な効果的な戦略の1つは、パフォーマンスを改善する有害なインスタンスを特定することである。
以前のアプローチでは、トレーニングインスタンスが存在しないことがパラメータに直接影響を与えている。
本稿では,GAN評価基準がインスタンスの削除によってどのように変化するかに基づいて,各トレーニングインスタンスの有害度を測定するインスタンス評価手法を提案する。
- 参考スコア(独自算出の注目度): 12.466874710578612
- License:
- Abstract: As the application of generative adversarial networks (GANs) expands, it becomes increasingly critical to develop a unified approach that improves performance across various generative tasks. One effective strategy that applies to any machine learning task is identifying harmful instances, whose removal improves the performance. While previous studies have successfully estimated these harmful training instances in supervised settings, their approaches are not easily applicable to GANs. The challenge lies in two requirements of the previous approaches that do not apply to GANs. First, previous approaches require that the absence of a training instance directly affects the parameters. However, in the training for GANs, the instances do not directly affect the generator's parameters since they are only fed into the discriminator. Second, previous approaches assume that the change in loss directly quantifies the harmfulness of the instance to a model's performance, while common types of GAN losses do not always reflect the generative performance. To overcome the first challenge, we propose influence estimation methods that use the Jacobian of the generator's gradient with respect to the discriminator's parameters (and vice versa). Such a Jacobian represents the indirect effect between two models: how removing an instance from the discriminator's training changes the generator's parameters. Second, we propose an instance evaluation scheme that measures the harmfulness of each training instance based on how a GAN evaluation metric (e.g., Inception score) is expected to change by the instance's removal. Furthermore, we demonstrate that removing the identified harmful instances significantly improves the generative performance on various GAN evaluation metrics.
- Abstract(参考訳): GAN(Generative Adversarial Network)の適用が拡大するにつれて、様々なジェネレーティブタスクのパフォーマンスを向上させる統一的なアプローチを開発することがますます重要になっている。
機械学習タスクに適用可能な効果的な戦略の1つは、パフォーマンスを改善する有害なインスタンスを特定することである。
これまでの研究では、これらの有害なトレーニングインスタンスを教師付き設定で評価することに成功したが、それらのアプローチは簡単にはGANに適用できない。
課題は、GANに適用できない以前のアプローチの2つの要件にある。
まず、以前のアプローチでは、トレーニングインスタンスが存在しないことがパラメータに直接影響を与えている。
しかしながら、GANのトレーニングでは、インスタンスはディスクリミネータにのみ供給されるため、ジェネレータのパラメータに直接影響を与えない。
第二に、損失の変化はモデルの性能に対するインスタンスの有害性を直接的に定量化するが、一般的な種類のGAN損失は生成性能を反映しない。
最初の課題を克服するために、判別器のパラメータ(およびその逆)に関してジェネレータの勾配のヤコビアンを用いた影響推定手法を提案する。
そのようなヤコビアン(Jacobian)は、2つのモデルの間の間接的な効果を表す: 判別器のトレーニングからインスタンスを除去する方法はジェネレータのパラメータを変化させる。
第2に、GAN評価基準(例えば、インセプションスコア)がインスタンスの削除によってどのように変化するかに基づいて、各トレーニングインスタンスの有害度を測定するインスタンス評価手法を提案する。
さらに, 同定された有害事象の除去は, 種々のGAN評価指標における生成性能を著しく向上させることを示した。
関連論文リスト
- Adapt then Unlearn: Exploring Parameter Space Semantics for Unlearning in Generative Adversarial Networks [5.107720313575234]
本研究は,事前学習されたGAN(Generative Adversarial Network)から不要な特徴を含む出力の発生を防止することを目的とする。
提案手法は「Adapt-then-Unlearn」と呼ばれ、望ましくない特徴を学習すると同時に、生成したサンプルの品質も維持する。
我々の知識を最大限に活用するために、我々のアプローチは、高忠実なGANの領域内での未学習に対処する最初の方法である。
論文 参考訳(メタデータ) (2023-09-25T11:36:20Z) - Training Discrete Deep Generative Models via Gapped Straight-Through
Estimator [72.71398034617607]
再サンプリングのオーバーヘッドを伴わずに分散を低減するため, GST (Gapped Straight-Through) 推定器を提案する。
この推定子は、Straight-Through Gumbel-Softmaxの本質的な性質に着想を得たものである。
実験により,提案したGST推定器は,2つの離散的な深部生成モデリングタスクの強いベースラインと比較して,優れた性能を享受できることが示された。
論文 参考訳(メタデータ) (2022-06-15T01:46:05Z) - Augmentation-Aware Self-Supervision for Data-Efficient GAN Training [68.81471633374393]
識別器が過度に適合する傾向があるため、限られたデータでGANを訓練することは困難である。
本稿では,拡張データの拡張パラメータを予測する,拡張型自己教師型識別器を提案する。
本稿では,クラス条件の BigGAN と非条件の StyleGAN2 アーキテクチャを用いた State-of-the-art (SOTA) 手法と比較する。
論文 参考訳(メタデータ) (2022-05-31T10:35:55Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Demonstrating the Evolution of GANs through t-SNE [0.4588028371034407]
COEGANのような進化的アルゴリズムは、最近、GANトレーニングを改善するソリューションとして提案されている。
本研究では, t-distributed Neighbour Embedding (t-SNE) を用いたGANの進展評価手法を提案する。
結果の t-SNE マップと Jaccard インデックスに基づく計量をモデル品質を表すために提案する。
論文 参考訳(メタデータ) (2021-01-31T20:07:08Z) - The Hidden Tasks of Generative Adversarial Networks: An Alternative
Perspective on GAN Training [1.964574177805823]
我々は、GAN(Generative Adversarial Network)のトレーニングに関する代替的視点を示す。
GANジェネレータのトレーニングステップが2つの暗黙のサブプロブレムに分解されることを示す。
本研究は,本研究の主な理論的成果を実験的に検証し,代替トレーニング手法の意義について考察する。
論文 参考訳(メタデータ) (2021-01-28T08:17:29Z) - Influence Estimation for Generative Adversarial Networks [0.4014524824655105]
以前のアプローチでは、トレーニングインスタンスの欠如が直接損失値に影響を与える必要がある。
我々は,gan評価基準がどのような変化を期待するかに基づいて,各トレーニングインスタンスの有害性を評価する新しい評価手法を提案する。
論文 参考訳(メタデータ) (2021-01-20T23:55:54Z) - A Simple but Tough-to-Beat Data Augmentation Approach for Natural
Language Understanding and Generation [53.8171136907856]
カットオフと呼ばれる、シンプルで効果的なデータ拡張戦略のセットを紹介します。
カットオフはサンプリング一貫性に依存しているため、計算オーバーヘッドが少なくなる。
cutoffは、敵のトレーニングを一貫して上回り、IWSLT2014 German- English データセットで最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-09-29T07:08:35Z) - Estimating Generalization under Distribution Shifts via Domain-Invariant
Representations [75.74928159249225]
未知の真のターゲットラベルのプロキシとして、ドメイン不変の予測器のセットを使用します。
結果として生じるリスク見積の誤差は、プロキシモデルのターゲットリスクに依存する。
論文 参考訳(メタデータ) (2020-07-06T17:21:24Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z) - Discriminative Adversarial Search for Abstractive Summarization [29.943949944682196]
シーケンシャルデコード(DAS)の新しい手法を提案する。
DASは外部メトリクスを必要とせず、露光バイアスの影響を軽減するのが望ましい特性である。
抽象的な要約作業における提案手法の有効性について検討する。
論文 参考訳(メタデータ) (2020-02-24T17:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。