論文の概要: Mind the Gap in Distilling StyleGANs
- arxiv url: http://arxiv.org/abs/2208.08840v1
- Date: Thu, 18 Aug 2022 14:18:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 13:44:41.052727
- Title: Mind the Gap in Distilling StyleGANs
- Title(参考訳): 蒸留スタイルガンのギャップを念頭に置いて
- Authors: Guodong Xu, Yuenan Hou, Ziwei Liu, Chen Change Loy
- Abstract要約: StyleGANファミリは、非条件生成のためのGAN(Generative Adversarial Networks)として最も人気のあるものの一つである。
本稿では,StyleGAN-likeアーキテクチャの蒸留に関する総合的研究について述べる。
- 参考スコア(独自算出の注目度): 100.58444291751015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: StyleGAN family is one of the most popular Generative Adversarial Networks
(GANs) for unconditional generation. Despite its impressive performance, its
high demand on storage and computation impedes their deployment on
resource-constrained devices. This paper provides a comprehensive study of
distilling from the popular StyleGAN-like architecture. Our key insight is that
the main challenge of StyleGAN distillation lies in the output discrepancy
issue, where the teacher and student model yield different outputs given the
same input latent code. Standard knowledge distillation losses typically fail
under this heterogeneous distillation scenario. We conduct thorough analysis
about the reasons and effects of this discrepancy issue, and identify that the
mapping network plays a vital role in determining semantic information of
generated images. Based on this finding, we propose a novel initialization
strategy for the student model, which can ensure the output consistency to the
maximum extent. To further enhance the semantic consistency between the teacher
and student model, we present a latent-direction-based distillation loss that
preserves the semantic relations in latent space. Extensive experiments
demonstrate the effectiveness of our approach in distilling StyleGAN2 and
StyleGAN3, outperforming existing GAN distillation methods by a large margin.
- Abstract(参考訳): StyleGANファミリーは、非条件生成のためのGAN(Generative Adversarial Networks)として最も人気がある。
優れたパフォーマンスにもかかわらず、ストレージと計算に対する高い需要は、リソースに制約のあるデバイスへのデプロイメントを妨げる。
本稿では,StyleGAN-likeアーキテクチャの蒸留に関する総合的研究を行う。
我々の重要な洞察は、StyleGAN蒸留の主な課題は、教師と学生が同じ入力潜在コードから異なる出力を出力する出力不一致の問題にあるということである。
標準的な知識蒸留の損失は、通常、この異種蒸留のシナリオで失敗する。
本稿では,この不一致の原因と影響について詳細な分析を行い,地図ネットワークが生成画像の意味的情報を決定する上で重要な役割を担っていることを示す。
そこで,本研究では,学習者のモデルに対する新しい初期化戦略を提案する。
教師と学生のモデルのセマンティック一貫性をさらに高めるため,潜在空間における意味的関係を保った潜在方向に基づく蒸留損失を提示する。
広範囲な実験により,本手法がStyleGAN2およびStyleGAN3の蒸留に有効であることを示す。
関連論文リスト
- Knowledge Distillation with Refined Logits [31.205248790623703]
本稿では,現在のロジット蒸留法の限界に対処するため,Refined Logit Distillation (RLD)を導入する。
我々のアプローチは、高性能な教師モデルでさえ誤った予測をすることができるという観察に動機づけられている。
本手法は,教師からの誤解を招く情報を,重要なクラス相関を保ちながら効果的に排除することができる。
論文 参考訳(メタデータ) (2024-08-14T17:59:32Z) - One Step Diffusion-based Super-Resolution with Time-Aware Distillation [60.262651082672235]
拡散に基づく画像超解像(SR)法は,低解像度画像から細部まで細部まで,高解像度画像の再構成に有望であることを示す。
近年,拡散型SRモデルの知識蒸留によるサンプリング効率の向上が試みられている。
我々は,効率的な画像超解像を実現するため,TAD-SRというタイムアウェア拡散蒸留法を提案する。
論文 参考訳(メタデータ) (2024-08-14T11:47:22Z) - Multi-Granularity Semantic Revision for Large Language Model Distillation [66.03746866578274]
LLM蒸留における多粒性セマンティックリビジョン法を提案する。
シーケンスレベルでは、シーケンス修正と再生戦略を提案する。
トークンレベルでは、蒸留目的関数として、Kulback-Leibler損失を補正する分布適応クリッピングを設計する。
スパンレベルでは、シーケンスのスパン前処理を利用して、スパン内の確率相関を計算し、教師と学生の確率相関を一貫性に制約する。
論文 参考訳(メタデータ) (2024-07-14T03:51:49Z) - Advancing Pre-trained Teacher: Towards Robust Feature Discrepancy for Anomaly Detection [19.099643719358692]
AANDと呼ばれる単純な2段階産業異常検出フレームワークを提案する。
第1の異常増幅段階において,事前学習した教師エンコーダを前進させる新しい残留異常増幅(RAA)モジュールを提案する。
さらに, 学生デコーダを訓練するために, 逆蒸留パラダイムを用いて, 新たなハードナレッジ蒸留(HKD)の損失を発生させ, 正常なパターンの再構築を容易にする。
論文 参考訳(メタデータ) (2024-05-03T13:00:22Z) - HomoDistil: Homotopic Task-Agnostic Distillation of Pre-trained
Transformers [49.79405257763856]
本稿では,タスク非依存蒸留に焦点をあてる。
これは、計算コストとメモリフットプリントを小さくして、様々なタスクで簡単に微調整できるコンパクトな事前訓練モデルを生成する。
本稿では, 反復刈り込みによる新規なタスク非依存蒸留法であるHomotopic Distillation (HomoDistil)を提案する。
論文 参考訳(メタデータ) (2023-02-19T17:37:24Z) - Normalized Feature Distillation for Semantic Segmentation [6.882655287146012]
正規化特徴蒸留(NFD)と呼ばれる簡易かつ効果的な特徴蒸留法を提案する。
提案手法は,都市景観,VOC 2012,ADE20Kデータセットのセマンティックセマンティックセマンティックセグメンテーションのための,最先端の蒸留結果を実現する。
論文 参考訳(メタデータ) (2022-07-12T01:54:25Z) - Anomaly Detection via Reverse Distillation from One-Class Embedding [2.715884199292287]
教師エンコーダと生徒デコーダからなる新しいT-Sモデルを提案する。
生画像を直接受信する代わりに、学生ネットワークは教師モデルの1クラス埋め込みを入力として取り込む。
さらに、T-Sモデルにトレーニング可能な1クラスボトルネック埋め込みモジュールを導入する。
論文 参考訳(メタデータ) (2022-01-26T01:48:37Z) - Knowledge distillation via adaptive instance normalization [52.91164959767517]
本稿では,教師から生徒への特徴統計の伝達に基づく新しい知識蒸留法を提案する。
本手法は,教師に類似する生徒の平均と分散を強制する標準的な方法を超えている。
以上の結果から, 蒸留法は他の蒸留法よりも高い性能を示した。
論文 参考訳(メタデータ) (2020-03-09T17:50:12Z) - High-Fidelity Synthesis with Disentangled Representation [60.19657080953252]
本稿では,不整合学習と高忠実度合成のためのID-GAN(Information-Distillation Generative Adrial Network)を提案する。
提案手法は, VAEモデルを用いて非交叉表現を学習し, 高忠実度合成のためのGAN生成器に追加のニュアンス変数で学習表現を蒸留する。
単純さにもかかわらず,提案手法は高効率であり,不整合表現を用いた最先端の手法に匹敵する画像生成品質を実現する。
論文 参考訳(メタデータ) (2020-01-13T14:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。