論文の概要: Synthesizing Informative Training Samples with GAN
- arxiv url: http://arxiv.org/abs/2204.07513v1
- Date: Fri, 15 Apr 2022 15:16:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-18 14:58:38.567678
- Title: Synthesizing Informative Training Samples with GAN
- Title(参考訳): GANを用いたインフォーマティブトレーニングサンプルの合成
- Authors: Bo Zhao, Hakan Bilen
- Abstract要約: GAN(IT-GAN)を用いたインフォーマティブトレーニングサンプルの合成法を提案する。
具体的には、事前学習したGANモデルを凍結し、情報学習サンプルに対応する情報潜在ベクトルを学習する。
実験では、ディープニューラルネットワークがより速く学習し、IT-GAN生成したイメージでトレーニングされた場合のパフォーマンスが向上することを確認した。
- 参考スコア(独自算出の注目度): 31.225934266572192
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Remarkable progress has been achieved in synthesizing photo-realistic images
with generative adversarial neural networks (GANs). Recently, GANs are utilized
as the training sample generator when obtaining or storing real training data
is expensive even infeasible. However, traditional GANs generated images are
not as informative as the real training samples when being used to train deep
neural networks. In this paper, we propose a novel method to synthesize
Informative Training samples with GAN (IT-GAN). Specifically, we freeze a
pre-trained GAN model and learn the informative latent vectors that corresponds
to informative training samples. The synthesized images are required to
preserve information for training deep neural networks rather than visual
reality or fidelity. Experiments verify that the deep neural networks can learn
faster and achieve better performance when being trained with our IT-GAN
generated images. We also show that our method is a promising solution to
dataset condensation problem.
- Abstract(参考訳): フォトリアリスティック画像とGAN(Generative Adversarial Neural Network)の合成において、顕著な進歩が達成されている。
近年、実際のトレーニングデータを取得または保存する場合、GANをトレーニングサンプルジェネレータとして利用することができる。
しかし、従来のgans生成画像は、ディープニューラルネットワークのトレーニングに使用する場合、実際のトレーニングサンプルほど有益ではない。
本稿では,GAN(IT-GAN)を用いたインフォーマティブトレーニングサンプルの合成手法を提案する。
具体的には、事前学習したGANモデルを凍結し、情報学習サンプルに対応する情報潜在ベクトルを学習する。
合成画像は、視覚現実や忠実性ではなく、深層ニューラルネットワークを訓練するための情報を保存するために必要である。
実験は、深層ニューラルネットワークがより速く学習し、私たちのit-gan生成画像でトレーニングすることで、よりよいパフォーマンスが得られることを検証します。
また,本手法はデータセット凝縮問題に対する有望な解であることを示す。
関連論文リスト
- Image Captions are Natural Prompts for Text-to-Image Models [70.30915140413383]
本研究では,合成データの学習効果とプロンプトによる合成データ分布の関係を解析した。
本稿では,テキストから画像への生成モデルにより,より情報的で多様な学習データを合成する簡易かつ効果的な手法を提案する。
本手法は,合成学習データに基づいて訓練したモデルの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-07-17T14:38:11Z) - Improving GAN Training via Feature Space Shrinkage [69.98365478398593]
本稿では,識別器の画像表現空間におけるトレーニングデータの領域を縮小するAdaptiveMixを提案する。
直接有界な特徴空間を考慮し, ハードサンプルを構築し, ハードサンプルと簡単なサンプル間の特徴距離を狭めることを提案する。
評価結果から,我々のAdaptiveMixはGANの訓練を容易にし,生成したサンプルの画像品質を効果的に向上させることができることが示された。
論文 参考訳(メタデータ) (2023-03-02T20:22:24Z) - Zero-Shot Learning of a Conditional Generative Adversarial Network for
Data-Free Network Quantization [44.22469647001933]
本研究では,条件付き生成逆ネットワーク(CGAN)をトレーニングデータを用いずにトレーニングする方法を提案する。
条件付きジェネレータのゼロショット学習は、事前訓練された識別(分類)モデルのみを必要とし、訓練データを必要としない。
深層ニューラルネットワークのデータ自由量子化におけるZS-CGANの有用性を示す。
論文 参考訳(メタデータ) (2022-10-26T00:05:57Z) - A Survey on Leveraging Pre-trained Generative Adversarial Networks for
Image Editing and Restoration [72.17890189820665]
GAN(Generative Adversarial Network)は、単純だが効果的なトレーニング機構と優れた画像生成品質により、大きな注目を集めている。
近年のGANモデルは生成した画像と実際の画像とのギャップを大幅に狭めている。
近年の多くの研究は、未学習のGANモデルと学習されたGAN先行空間を生かして、事前学習されたGANモデルを活用することへの関心が高まっている。
論文 参考訳(メタデータ) (2022-07-21T05:05:58Z) - Reconstructing Training Data from Trained Neural Networks [42.60217236418818]
いくつかのケースでは、トレーニングデータのかなりの部分が、実際にトレーニングされたニューラルネットワーク分類器のパラメータから再構成可能であることを示す。
本稿では,勾配に基づくニューラルネットワークの学習における暗黙バイアスに関する最近の理論的結果から,新たな再構成手法を提案する。
論文 参考訳(メタデータ) (2022-06-15T18:35:16Z) - BIM Hyperreality: Data Synthesis Using BIM and Hyperrealistic Rendering
for Deep Learning [3.4461633417989184]
写真に物体認識を構築するニューラルネットワークを訓練するためのハイブリッドシステムの概念を提示する。
本論文で提示した具体的ケーススタディでは,合成データで学習したニューラルネットワークを用いて,トレーニングデータに写真を用いることなく,写真から物体を識別できることが示されている。
論文 参考訳(メタデータ) (2021-05-10T04:08:24Z) - Ultra-Data-Efficient GAN Training: Drawing A Lottery Ticket First, Then
Training It Toughly [114.81028176850404]
限られたデータでGAN(generative adversarial network)を訓練すると、一般的に性能が低下し、モデルが崩壊する。
データハングリーGANトレーニングを2つのシーケンシャルサブプロブレムに分解する。
このような協調フレームワークにより、より低い複雑さとよりデータ効率のよいサブ問題に集中することができます。
論文 参考訳(メタデータ) (2021-02-28T05:20:29Z) - Generative Zero-shot Network Quantization [41.75769117366117]
畳み込みニューラルネットワークは、低レベルの画像生成と復元における多数のトレーニングサンプルから現実的な画像優先度を学習することができる。
また,高レベル画像認識タスクでは,本質的バッチ正規化(bn)統計をトレーニングデータなしで活用することにより,各カテゴリの「現実的」画像をさらに再構築できることを示す。
論文 参考訳(メタデータ) (2021-01-21T04:10:04Z) - Syn2Real Transfer Learning for Image Deraining using Gaussian Processes [92.15895515035795]
CNNに基づく画像デライニング手法は,再現誤差や視覚的品質の点で優れた性能を発揮している。
実世界の完全ラベル付き画像デライニングデータセットを取得する上での課題により、既存の手法は合成されたデータのみに基づいて訓練される。
本稿では,ガウス過程に基づく半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T00:33:18Z) - Light-in-the-loop: using a photonics co-processor for scalable training
of neural networks [21.153688679957337]
本稿では,デジタル実装ニューラルネットワークのトレーニングフェーズを高速化する最初の光コプロセッサを提案する。
我々は、手書き桁認識のためのニューラルネットワークのトレーニングに使用していることを実証する。
論文 参考訳(メタデータ) (2020-06-02T09:19:45Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。