論文の概要: Exploring DeshuffleGANs in Self-Supervised Generative Adversarial
Networks
- arxiv url: http://arxiv.org/abs/2011.01730v2
- Date: Wed, 1 Sep 2021 14:00:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 05:19:53.342461
- Title: Exploring DeshuffleGANs in Self-Supervised Generative Adversarial
Networks
- Title(参考訳): 自己監督型生成逆数ネットワークにおけるデシャッフルGANの探索
- Authors: Gulcin Baykal, Furkan Ozcelik, Gozde Unal
- Abstract要約: 本稿では,デシャッフルGANを一般化可能な文脈でデシャッフルする自己超越タスクの寄与について検討する。
DeshuffleGANは、他の自己教師型GANと比較して、複数のデータセットに対して最良のFID結果が得られることを示す。
我々は,cDeshuffleGANと呼ばれる条件付きDeshuffleGANを設計し,学習した表現の質を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative Adversarial Networks (GANs) have become the most used networks
towards solving the problem of image generation. Self-supervised GANs are later
proposed to avoid the catastrophic forgetting of the discriminator and to
improve the image generation quality without needing the class labels. However,
the generalizability of the self-supervision tasks on different GAN
architectures is not studied before. To that end, we extensively analyze the
contribution of a previously proposed self-supervision task, deshuffling of the
DeshuffleGANs in the generalizability context. We assign the deshuffling task
to two different GAN discriminators and study the effects of the task on both
architectures. We extend the evaluations compared to the previously proposed
DeshuffleGANs on various datasets. We show that the DeshuffleGAN obtains the
best FID results for several datasets compared to the other self-supervised
GANs. Furthermore, we compare the deshuffling with the rotation prediction that
is firstly deployed to the GAN training and demonstrate that its contribution
exceeds the rotation prediction. We design the conditional DeshuffleGAN called
cDeshuffleGAN to evaluate the quality of the learnt representations. Lastly, we
show the contribution of the self-supervision tasks to the GAN training on the
loss landscape and present that the effects of these tasks may not be
cooperative to the adversarial training in some settings. Our code can be found
at https://github.com/gulcinbaykal/DeshuffleGAN.
- Abstract(参考訳): generative adversarial networks (gans) は画像生成の問題を解決するために最も使われているネットワークである。
自己監督型GANは後に、識別器の破滅的な忘れを回避し、クラスラベルを必要とせずに画像生成品質を向上させるために提案されている。
しかし、異なるganアーキテクチャ上での自己スーパービジョンタスクの一般化は以前にも研究されていない。
そこで本研究では,従来提案されていた自己超越タスクの貢献,デシャッフルGANの一般化性におけるデシャッフル化を広く分析する。
2つの異なるGAN識別器にデシャッフルタスクを割り当て、そのタスクが両方のアーキテクチャに与える影響を研究する。
各種データセット上で提案したDeshuffleGANと比較して評価を拡張した。
DeshuffleGANは、他の自己教師型GANと比較して、複数のデータセットに対して最良のFID結果が得られることを示す。
さらに,まずGANトレーニングに展開した回転予測とデシャフリングを比較し,その寄与が回転予測を超えたことを示す。
我々は,cDeshuffleGANと呼ばれる条件付きDeshuffleGANを設計し,学習した表現の質を評価する。
最後に,GANトレーニングにおける自己監督タスクの損失状況への貢献を示すとともに,これらのタスクの効果が,一部の環境での対人トレーニングと協調しない可能性があることを示す。
私たちのコードはhttps://github.com/gulcinbaykal/deshuffleganにあります。
関連論文リスト
- Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Rebooting ACGAN: Auxiliary Classifier GANs with Stable Training [45.70113212633225]
条件付き生成逆数ネットワーク(cGAN)は、クラス情報をGANに組み込んで現実的な画像を生成する。
最も一般的なcGANの1つは、ソフトマックスクロスエントロピー損失(ACGAN)を持つ補助分類器GANである。
ACGANはまた、多様性の欠如により容易に分類できるサンプルを生成する傾向がある。
論文 参考訳(メタデータ) (2021-11-01T17:51:33Z) - Training Generative Adversarial Networks in One Stage [58.983325666852856]
本稿では,1段階のみに効率よくGANを訓練できる汎用的なトレーニング手法を提案する。
提案手法は,データフリーな知識蒸留など,他の逆学習シナリオにも容易に適用可能であることを示す。
論文 参考訳(メタデータ) (2021-02-28T09:03:39Z) - ErGAN: Generative Adversarial Networks for Entity Resolution [8.576633582363202]
学習ベースのエンティティ解決の大きな課題は、トレーニングのラベルコストを削減する方法です。
そこで本研究では,erganと呼ばれる新しい深層学習手法を提案する。
ErGANのラベリングと学習効率を実証的に検証するための広範な実験を実施しました。
論文 参考訳(メタデータ) (2020-12-18T01:33:58Z) - Teaching a GAN What Not to Learn [20.03447539784024]
GAN(Generative Adversarial Network)は、本来、対象分布に従うことを学習する教師なし生成モデルとして構想されていた。
本稿では,ペルシアの有名な詩人ルミの思想に動機づけられたGAN問題に対して,異なる視点からアプローチする。
GANフレームワークでは、モデリングを学習しなければならないGAN陽性データだけでなく、回避しなければならないいわゆる負のサンプルも提示します。
この定式化により、判別器は、望ましくない生成サンプルをペナリゼーションすることで、基礎となるターゲット分布をより良く表現することができる。
論文 参考訳(メタデータ) (2020-10-29T14:44:24Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - DeshuffleGAN: A Self-Supervised GAN to Improve Structure Learning [0.0]
我々は、GAN性能を改善する上で重要なポイントの1つは、データ内の空間構造を学習する能力を備えたモデルを提供することであると主張している。
ランダムにシャッフルされた画像タイルのパズルを解くデシャッフルタスクを導入し、デシャッフルGANが空間構造と現実的な外観の表現能力を向上させるのに役立つ。
論文 参考訳(メタデータ) (2020-06-15T19:06:07Z) - Improving GAN Training with Probability Ratio Clipping and Sample
Reweighting [145.5106274085799]
GAN(Generative Adversarial Network)は、不安定なトレーニングにより性能が低下することが多い。
本稿では,より優れたトレーニング安定性を享受する新しい変分GANトレーニングフレームワークを提案する。
多様な最先端のGANアーキテクチャにトレーニングアプローチを組み込むことで、幅広いタスクに対して大幅な性能向上を実現した。
論文 参考訳(メタデータ) (2020-06-12T01:39:48Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z) - Interpreting Galaxy Deblender GAN from the Discriminator's Perspective [50.12901802952574]
本研究は、ネットワークの主要なコンポーネントである識別器の動作に焦点を当てるが、しばしば見落とされがちな役割を担っている。
本手法は, 生成銀河画像と地中真理画像とを区別する際に, 識別器の注意領域を明確に明らかにする。
論文 参考訳(メタデータ) (2020-01-17T04:05:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。