論文の概要: Distilling Representations from GAN Generator via Squeeze and Span
- arxiv url: http://arxiv.org/abs/2211.03000v1
- Date: Sun, 6 Nov 2022 01:10:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 17:21:55.438402
- Title: Distilling Representations from GAN Generator via Squeeze and Span
- Title(参考訳): gan発生器からのスクイーズとスパンによる蒸留表現
- Authors: Yu Yang, Xiaotian Cheng, Chang Liu, Hakan Bilen, Xiangyang Ji
- Abstract要約: 本稿では,GANジェネレータから知識を抽出し,その表現を抽出する手法を提案する。
我々は,合成ドメインの蒸留された表現を実領域に分散し,実際のトレーニングデータを用いてGANのモード崩壊を緩和する。
- 参考スコア(独自算出の注目度): 55.76208869775715
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, generative adversarial networks (GANs) have been an actively
studied topic and shown to successfully produce high-quality realistic images
in various domains. The controllable synthesis ability of GAN generators
suggests that they maintain informative, disentangled, and explainable image
representations, but leveraging and transferring their representations to
downstream tasks is largely unexplored. In this paper, we propose to distill
knowledge from GAN generators by squeezing and spanning their representations.
We squeeze the generator features into representations that are invariant to
semantic-preserving transformations through a network before they are distilled
into the student network. We span the distilled representation of the synthetic
domain to the real domain by also using real training data to remedy the mode
collapse of GANs and boost the student network performance in a real domain.
Experiments justify the efficacy of our method and reveal its great
significance in self-supervised representation learning. Code is available at
https://github.com/yangyu12/squeeze-and-span.
- Abstract(参考訳): 近年,GAN(Generative Adversarial Network)が盛んに研究され,様々な領域で高品質な現実画像が作成されている。
GANジェネレータの制御可能な合成能力は、情報的、非絡み合い、説明可能な画像表現を維持することを示唆するが、下流タスクへの表現の活用と転送はほとんど探索されていない。
本稿では,gan生成器からの知識を絞り込み,その表現にまたがって蒸留することを提案する。
生成した特徴を,学生ネットワークに蒸留する前にネットワークを通じて意味保存変換に不変な表現に絞る。
我々は,合成ドメインの蒸留された表現を実ドメインに分散し,実ドメインにおけるGANのモード崩壊を軽減し,学生ネットワーク性能を高めるために,実際のトレーニングデータを使用する。
実験は,本手法の有効性を正当化し,自己指導型表現学習においてその意義を明らかにする。
コードはhttps://github.com/yangyu12/squeeze-and-spanで入手できる。
関連論文リスト
- Spider GAN: Leveraging Friendly Neighbors to Accelerate GAN Training [20.03447539784024]
本稿では,画像を入力とするGANの学習手法を提案する。
このプロセスは、密接に関連するデータセットや、ターゲット分布のフレンドリーな近所'を識別することで、効率的に行うことができる。
我々は、スパイダーガンの定式化がより高速な収束をもたらすことを示し、ジェネレータは、一見無関係なデータセットでさえ対応を発見できることを示した。
論文 参考訳(メタデータ) (2023-05-12T17:03:18Z) - Exploring Incompatible Knowledge Transfer in Few-shot Image Generation [107.81232567861117]
少ないショット画像生成は、いくつかの参照サンプルを使用して、ターゲットドメインから多彩で高忠実な画像を生成することを学習する。
既存のF SIGメソッドは、ソースジェネレータから事前の知識を選択し、保存し、転送し、ターゲットジェネレータを学習する。
本稿では,知識保存を補完する操作であり,軽量プルーニング方式で実装した知識トランケーションを提案する。
論文 参考訳(メタデータ) (2023-04-15T14:57:15Z) - GH-Feat: Learning Versatile Generative Hierarchical Features from GANs [61.208757845344074]
画像合成から学習した生成機能は、幅広いコンピュータビジョンタスクを解く上で大きな可能性を秘めていることを示す。
まず,事前学習したStyleGANジェネレータを学習損失関数として考慮し,エンコーダを訓練する。
GH-Feat(Generative Hierarchical Features)と呼ばれるエンコーダが生成する視覚的特徴は、階層的なGAN表現と高度に一致している。
論文 参考訳(メタデータ) (2023-01-12T21:59:46Z) - Extracting Semantic Knowledge from GANs with Unsupervised Learning [65.32631025780631]
GAN(Generative Adversarial Networks)は、特徴写像のセマンティクスを線形に分離可能な形でエンコードする。
本稿では,線形分離性を利用してGANの特徴をクラスタリングする新しいクラスタリングアルゴリズムKLiSHを提案する。
KLiSHは、さまざまなオブジェクトのデータセットに基づいてトレーニングされたGANのきめ細かいセマンティクスの抽出に成功している。
論文 参考訳(メタデータ) (2022-11-30T03:18:16Z) - Gated SwitchGAN for multi-domain facial image translation [12.501699058042439]
本稿では,より適応的な識別器構造と一致した生成器を備えたスイッチ生成逆数ネットワーク(SwitchGAN)を提案し,微妙な画像変換を行う。
条件付きモジュールにおける特徴選択と融合を実現するために,特徴切替操作を提案する。
Morph, RaFD, CelebAデータベースを用いた実験により, 我々の拡張SwitchGANは, StarGAN, AttGAN, STGANよりも優れた翻訳結果が得られることを示した。
論文 参考訳(メタデータ) (2021-11-28T10:24:43Z) - Towards Discovery and Attribution of Open-world GAN Generated Images [18.10496076534083]
本稿では,未確認のGANから生成した画像の反復的探索アルゴリズムを提案する。
アルゴリズムはネットワークトレーニング,分散検出,クラスタリング,マージ,洗練といった複数のコンポーネントで構成されている。
私たちの実験は、新しいganを発見し、オープンワールドのセットアップで使用できるアプローチの有効性を示しています。
論文 参考訳(メタデータ) (2021-05-10T18:00:13Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Deep Snow: Synthesizing Remote Sensing Imagery with Generative
Adversarial Nets [0.5249805590164901]
GAN(Generative Adversarial Network)は、リモートセンシング画像における現実的な広汎な変化を生成するために用いられる。
生成画像と実画像の深い埋め込みに基づく変換品質指標について検討する。
論文 参考訳(メタデータ) (2020-05-18T17:05:00Z) - High-Fidelity Synthesis with Disentangled Representation [60.19657080953252]
本稿では,不整合学習と高忠実度合成のためのID-GAN(Information-Distillation Generative Adrial Network)を提案する。
提案手法は, VAEモデルを用いて非交叉表現を学習し, 高忠実度合成のためのGAN生成器に追加のニュアンス変数で学習表現を蒸留する。
単純さにもかかわらず,提案手法は高効率であり,不整合表現を用いた最先端の手法に匹敵する画像生成品質を実現する。
論文 参考訳(メタデータ) (2020-01-13T14:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。