論文の概要: Distilling Representations from GAN Generator via Squeeze and Span
- arxiv url: http://arxiv.org/abs/2211.03000v1
- Date: Sun, 6 Nov 2022 01:10:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 17:21:55.438402
- Title: Distilling Representations from GAN Generator via Squeeze and Span
- Title(参考訳): gan発生器からのスクイーズとスパンによる蒸留表現
- Authors: Yu Yang, Xiaotian Cheng, Chang Liu, Hakan Bilen, Xiangyang Ji
- Abstract要約: 本稿では,GANジェネレータから知識を抽出し,その表現を抽出する手法を提案する。
我々は,合成ドメインの蒸留された表現を実領域に分散し,実際のトレーニングデータを用いてGANのモード崩壊を緩和する。
- 参考スコア(独自算出の注目度): 55.76208869775715
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, generative adversarial networks (GANs) have been an actively
studied topic and shown to successfully produce high-quality realistic images
in various domains. The controllable synthesis ability of GAN generators
suggests that they maintain informative, disentangled, and explainable image
representations, but leveraging and transferring their representations to
downstream tasks is largely unexplored. In this paper, we propose to distill
knowledge from GAN generators by squeezing and spanning their representations.
We squeeze the generator features into representations that are invariant to
semantic-preserving transformations through a network before they are distilled
into the student network. We span the distilled representation of the synthetic
domain to the real domain by also using real training data to remedy the mode
collapse of GANs and boost the student network performance in a real domain.
Experiments justify the efficacy of our method and reveal its great
significance in self-supervised representation learning. Code is available at
https://github.com/yangyu12/squeeze-and-span.
- Abstract(参考訳): 近年,GAN(Generative Adversarial Network)が盛んに研究され,様々な領域で高品質な現実画像が作成されている。
GANジェネレータの制御可能な合成能力は、情報的、非絡み合い、説明可能な画像表現を維持することを示唆するが、下流タスクへの表現の活用と転送はほとんど探索されていない。
本稿では,gan生成器からの知識を絞り込み,その表現にまたがって蒸留することを提案する。
生成した特徴を,学生ネットワークに蒸留する前にネットワークを通じて意味保存変換に不変な表現に絞る。
我々は,合成ドメインの蒸留された表現を実ドメインに分散し,実ドメインにおけるGANのモード崩壊を軽減し,学生ネットワーク性能を高めるために,実際のトレーニングデータを使用する。
実験は,本手法の有効性を正当化し,自己指導型表現学習においてその意義を明らかにする。
コードはhttps://github.com/yangyu12/squeeze-and-spanで入手できる。
関連論文リスト
- U-KAN Makes Strong Backbone for Medical Image Segmentation and Generation [48.40120035775506]
Kolmogorov-Arnold Networks (KAN)は、非線形学習可能なアクティベーション関数のスタックを通じてニューラルネットワーク学習を再構築する。
トークン化中間表現であるU-KAN上に専用kan層を統合することにより,確立したU-Netパイプラインを検証,修正,再設計する。
さらに、拡散モデルにおける代替U-Netノイズ予測器としてのU-KANの可能性を探り、タスク指向モデルアーキテクチャの生成にその適用性を実証した。
論文 参考訳(メタデータ) (2024-06-05T04:13:03Z) - Spider GAN: Leveraging Friendly Neighbors to Accelerate GAN Training [20.03447539784024]
本稿では,画像を入力とするGANの学習手法を提案する。
このプロセスは、密接に関連するデータセットや、ターゲット分布のフレンドリーな近所'を識別することで、効率的に行うことができる。
我々は、スパイダーガンの定式化がより高速な収束をもたらすことを示し、ジェネレータは、一見無関係なデータセットでさえ対応を発見できることを示した。
論文 参考訳(メタデータ) (2023-05-12T17:03:18Z) - GH-Feat: Learning Versatile Generative Hierarchical Features from GANs [61.208757845344074]
画像合成から学習した生成機能は、幅広いコンピュータビジョンタスクを解く上で大きな可能性を秘めていることを示す。
まず,事前学習したStyleGANジェネレータを学習損失関数として考慮し,エンコーダを訓練する。
GH-Feat(Generative Hierarchical Features)と呼ばれるエンコーダが生成する視覚的特徴は、階層的なGAN表現と高度に一致している。
論文 参考訳(メタデータ) (2023-01-12T21:59:46Z) - Extracting Semantic Knowledge from GANs with Unsupervised Learning [65.32631025780631]
GAN(Generative Adversarial Networks)は、特徴写像のセマンティクスを線形に分離可能な形でエンコードする。
本稿では,線形分離性を利用してGANの特徴をクラスタリングする新しいクラスタリングアルゴリズムKLiSHを提案する。
KLiSHは、さまざまなオブジェクトのデータセットに基づいてトレーニングされたGANのきめ細かいセマンティクスの抽出に成功している。
論文 参考訳(メタデータ) (2022-11-30T03:18:16Z) - Gated SwitchGAN for multi-domain facial image translation [12.501699058042439]
本稿では,より適応的な識別器構造と一致した生成器を備えたスイッチ生成逆数ネットワーク(SwitchGAN)を提案し,微妙な画像変換を行う。
条件付きモジュールにおける特徴選択と融合を実現するために,特徴切替操作を提案する。
Morph, RaFD, CelebAデータベースを用いた実験により, 我々の拡張SwitchGANは, StarGAN, AttGAN, STGANよりも優れた翻訳結果が得られることを示した。
論文 参考訳(メタデータ) (2021-11-28T10:24:43Z) - Towards Discovery and Attribution of Open-world GAN Generated Images [18.10496076534083]
本稿では,未確認のGANから生成した画像の反復的探索アルゴリズムを提案する。
アルゴリズムはネットワークトレーニング,分散検出,クラスタリング,マージ,洗練といった複数のコンポーネントで構成されている。
私たちの実験は、新しいganを発見し、オープンワールドのセットアップで使用できるアプローチの有効性を示しています。
論文 参考訳(メタデータ) (2021-05-10T18:00:13Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - High-Fidelity Synthesis with Disentangled Representation [60.19657080953252]
本稿では,不整合学習と高忠実度合成のためのID-GAN(Information-Distillation Generative Adrial Network)を提案する。
提案手法は, VAEモデルを用いて非交叉表現を学習し, 高忠実度合成のためのGAN生成器に追加のニュアンス変数で学習表現を蒸留する。
単純さにもかかわらず,提案手法は高効率であり,不整合表現を用いた最先端の手法に匹敵する画像生成品質を実現する。
論文 参考訳(メタデータ) (2020-01-13T14:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。