論文の概要: Instance Selection for GANs
- arxiv url: http://arxiv.org/abs/2007.15255v2
- Date: Fri, 23 Oct 2020 04:43:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 13:14:09.241061
- Title: Instance Selection for GANs
- Title(参考訳): GANのインスタンス選択
- Authors: Terrance DeVries, Michal Drozdzal and Graham W. Taylor
- Abstract要約: GAN(Generative Adversarial Networks)は、高品質な合成画像を生成するために広く採用されている。
GANはしばしばデータ多様体の外にある非現実的なサンプルを生成する。
本稿では,サンプルの品質向上のための新しいアプローチを提案する。モデルトレーニングが行われる前に,インスタンス選択によるトレーニングデータセットの変更を行う。
- 参考スコア(独自算出の注目度): 25.196177369030146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in Generative Adversarial Networks (GANs) have led to their
widespread adoption for the purposes of generating high quality synthetic
imagery. While capable of generating photo-realistic images, these models often
produce unrealistic samples which fall outside of the data manifold. Several
recently proposed techniques attempt to avoid spurious samples, either by
rejecting them after generation, or by truncating the model's latent space.
While effective, these methods are inefficient, as a large fraction of training
time and model capacity are dedicated towards samples that will ultimately go
unused. In this work we propose a novel approach to improve sample quality:
altering the training dataset via instance selection before model training has
taken place. By refining the empirical data distribution before training, we
redirect model capacity towards high-density regions, which ultimately improves
sample fidelity, lowers model capacity requirements, and significantly reduces
training time. Code is available at
https://github.com/uoguelph-mlrg/instance_selection_for_gans.
- Abstract(参考訳): GAN(Generative Adversarial Networks)の最近の進歩は、高品質な合成画像を生成するために広く採用されている。
フォトリアリスティックな画像を生成することができるが、これらのモデルはしばしばデータ多様体の外にある非現実的サンプルを生成する。
最近提案されたいくつかの手法は、生成後のサンプルを拒絶したり、モデルの潜在空間を切断したりすることで、急激なサンプルを避けるよう試みている。
有効ではあるが、これらの手法は非効率であり、トレーニング時間とモデルのキャパシティの大部分は最終的に使われないサンプルに向けられている。
本稿では,サンプル品質を改善するための新しい手法を提案する。モデルトレーニングが行われる前に,インスタンス選択を通じてトレーニングデータセットを変更する。
実験データ分散をトレーニング前に精錬することにより,モデルキャパシティを高密度領域にリダイレクトし,最終的にサンプルの忠実度を改善し,モデルのキャパシティ要件を低くし,トレーニング時間を著しく短縮する。
コードはhttps://github.com/uoguelph-mlrg/instance_selection_for_gansで入手できる。
関連論文リスト
- Learning Defect Prediction from Unrealistic Data [57.53586547895278]
事前訓練されたコードのモデルは、コード理解と生成タスクに人気がある。
このようなモデルは大きい傾向があり、訓練データの総量を必要とする。
人工的に注入されたバグのある関数など、はるかに大きくてもより現実的なデータセットを持つモデルをトレーニングすることが一般的になった。
このようなデータで訓練されたモデルは、実際のプログラムでは性能が劣りながら、同様のデータでのみうまく機能する傾向にある。
論文 参考訳(メタデータ) (2023-11-02T01:51:43Z) - Dual Student Networks for Data-Free Model Stealing [79.67498803845059]
主な課題は、パラメータにアクセスせずにターゲットモデルの勾配を推定し、多様なトレーニングサンプルを生成することである。
そこで本研究では,2人の学生が左右対称に学習し,学生が反対するサンプルを生成するための基準を提案する。
我々の新しい最適化フレームワークは、目標モデルのより正確な勾配推定と、ベンチマーク分類データセットの精度向上を提供する。
論文 参考訳(メタデータ) (2023-09-18T18:11:31Z) - Data-free Black-box Attack based on Diffusion Model [59.62084781455181]
代用トレーニングの効率と精度を向上させるために,拡散モデルに基づくデータフリーのブラックボックス攻撃方式を提案する。
我々のLCAは攻撃の成功率が高く、異なるターゲットモデルに対するGANベースのスキームに比べてクエリ予算の削減が要求される。
論文 参考訳(メタデータ) (2023-07-24T15:10:22Z) - Decision-based iterative fragile watermarking for model integrity
verification [33.42076236847454]
ファンデーションモデルは一般的に、彼らのサービスに対する高い需要を満たすために、クラウドサーバー上でホストされる。
これは、アタッカーがクラウドにアップロードしたり、ローカルシステムから転送した後で修正できるため、セキュリティ上のリスクにさらされる。
本稿では,通常のトレーニングサンプルをモデル変更に敏感な脆弱なサンプルに変換する,反復的意思決定に基づく脆弱な透かしアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-13T10:36:11Z) - Reducing Training Sample Memorization in GANs by Training with
Memorization Rejection [80.0916819303573]
本稿では,トレーニング中のトレーニングサンプルのほぼ重複する生成サンプルを拒否する学習手法であるリジェクション記憶法を提案する。
我々のスキームは単純で汎用的であり、任意のGANアーキテクチャに直接適用することができる。
論文 参考訳(メタデータ) (2022-10-21T20:17:50Z) - Forgetting Data from Pre-trained GANs [28.326418377665345]
特定の種類のサンプルを忘れないように、トレーニング後にモデルを後編集する方法について検討する。
我々は,GANに対して,忘れるべきサンプルの表現方法が異なる3つの異なるアルゴリズムを提供する。
我々のアルゴリズムは、完全再トレーニングのコストのごく一部で、高品質を維持しながらデータを忘れることができる。
論文 参考訳(メタデータ) (2022-06-29T03:46:16Z) - Anytime Sampling for Autoregressive Models via Ordered Autoencoding [88.01906682843618]
自動回帰モデルは画像生成や音声生成などのタスクに広く使われている。
これらのモデルのサンプリングプロセスは割り込みを許さず、リアルタイムの計算資源に適応できない。
いつでもサンプリングできる新しい自動回帰モデルファミリーを提案します。
論文 参考訳(メタデータ) (2021-02-23T05:13:16Z) - Improved Denoising Diffusion Probabilistic Models [4.919647298882951]
その結果,ddpmは高いサンプル品質を維持しつつ,競合的なログライク性を達成できることがわかった。
また,逆拡散過程の学習分散により,フォワードパスが桁違いに小さくサンプリングできることがわかった。
これらのモデルのサンプルの品質と可能性について,モデルのキャパシティとトレーニング計算でスムーズに拡張できることを示し,スケーラビリティを向上する。
論文 参考訳(メタデータ) (2021-02-18T23:44:17Z) - One for More: Selecting Generalizable Samples for Generalizable ReID
Model [92.40951770273972]
本稿では,選択したサンプルを損失関数として一般化する1対3の学習目標を提案する。
提案した1対3のサンプルは,ReIDトレーニングフレームワークにシームレスに統合できる。
論文 参考訳(メタデータ) (2020-12-10T06:37:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。