論文の概要: Diversity-aware Channel Pruning for StyleGAN Compression
- arxiv url: http://arxiv.org/abs/2403.13548v1
- Date: Wed, 20 Mar 2024 12:36:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 16:57:51.263757
- Title: Diversity-aware Channel Pruning for StyleGAN Compression
- Title(参考訳): スタイルGAN圧縮のためのダイバーシティ対応チャネルプルーニング
- Authors: Jiwoo Chung, Sangeek Hyun, Sang-Heon Shim, Jae-Pil Heo,
- Abstract要約: StyleGANは無条件画像生成において顕著な性能を示した。
その高い計算コストは、実用的な応用に重大な課題をもたらす。
チャネルの様々な感度を潜在ベクトルに活用する新しいチャネルプルーニング法を提案する。
- 参考スコア(独自算出の注目度): 18.655559150764564
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: StyleGAN has shown remarkable performance in unconditional image generation. However, its high computational cost poses a significant challenge for practical applications. Although recent efforts have been made to compress StyleGAN while preserving its performance, existing compressed models still lag behind the original model, particularly in terms of sample diversity. To overcome this, we propose a novel channel pruning method that leverages varying sensitivities of channels to latent vectors, which is a key factor in sample diversity. Specifically, by assessing channel importance based on their sensitivities to latent vector perturbations, our method enhances the diversity of samples in the compressed model. Since our method solely focuses on the channel pruning stage, it has complementary benefits with prior training schemes without additional training cost. Extensive experiments demonstrate that our method significantly enhances sample diversity across various datasets. Moreover, in terms of FID scores, our method not only surpasses state-of-the-art by a large margin but also achieves comparable scores with only half training iterations.
- Abstract(参考訳): StyleGANは無条件画像生成において顕著な性能を示した。
しかし、その高い計算コストは、実用的な応用にとって大きな課題となる。
近年ではStyleGANの圧縮が試みられているが、既存の圧縮モデルはオリジナルのモデルより遅れており、特にサンプルの多様性は遅れている。
そこで本研究では, サンプルの多様性の鍵となる潜伏ベクトルに対して, チャネルの様々な感度を生かした新しいチャネルプルーニング手法を提案する。
具体的には、遅延ベクトル摂動に対する感受性に基づいてチャネルの重要性を評価することにより、圧縮モデルにおけるサンプルの多様性を高める。
本手法は,チャネルプルーニングの段階にのみ焦点を絞っているため,事前トレーニング方式と相補的な利点があり,追加のトレーニングコストがかからない。
大規模な実験により,本手法は様々なデータセットにおけるサンプルの多様性を著しく向上させることが示された。
さらに,FIDスコアの点からみると,本手法は最先端の技術を大きなマージンで上回るだけでなく,半分のトレーニングイテレーションで同等のスコアを達成できる。
関連論文リスト
- Few-Shot Image Generation by Conditional Relaxing Diffusion Inversion [37.18537753482751]
条件拡散緩和インバージョン(CRDI)は、合成画像生成における分布の多様性を高めるために設計されている。
CRDIはいくつかのサンプルに基づいた微調整を頼りにしていない。
ターゲットの画像インスタンスの再構築と、数ショットの学習による多様性の拡大に重点を置いている。
論文 参考訳(メタデータ) (2024-07-09T21:58:26Z) - Directly Fine-Tuning Diffusion Models on Differentiable Rewards [22.1685707267062]
本稿では,微分可能報酬関数を最大化するために,拡散モデルを微調整するダイレクト・リワード・ファイン・チューニング(DRaFT)を提案する。
まず,全サンプリング手順で報酬関数勾配を逆伝播させることで,様々な報酬に対して高い性能が得られることを示す。
提案手法は,様々な報酬関数に対して有効であり,安定拡散1.4で生成した画像の美的品質を大幅に向上させることができる。
論文 参考訳(メタデータ) (2023-09-29T17:01:02Z) - Deep Boosting Multi-Modal Ensemble Face Recognition with Sample-Level
Weighting [11.39204323420108]
深層畳み込みニューラルネットワークは顔認識において顕著な成功を収めた。
現在のトレーニングベンチマークは、不均衡な品質分布を示している。
これは、訓練中に不足しているため、ハードサンプルの一般化に問題を引き起こす。
有名なAdaBoostにインスパイアされた本研究では、FR損失に異なるサンプルの重要性を組み込むためのサンプルレベルの重み付け手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T01:44:54Z) - A Novel Cross-Perturbation for Single Domain Generalization [54.612933105967606]
単一ドメインの一般化は、モデルが単一のソースドメインでトレーニングされたときに未知のドメインに一般化する能力を高めることを目的としている。
トレーニングデータの限られた多様性は、ドメイン不変の特徴の学習を妨げ、結果として一般化性能を損なう。
トレーニングデータの多様性を高めるために,CPerbを提案する。
論文 参考訳(メタデータ) (2023-08-02T03:16:12Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Revisiting Consistency Regularization for Semi-Supervised Learning [80.28461584135967]
そこで我々は,FeatDistLossというシンプルな手法により,一貫性の規則化を改良したフレームワークを提案する。
実験結果から,本モデルは様々なデータセットや設定のための新しい技術状態を定義する。
論文 参考訳(メタデータ) (2021-12-10T20:46:13Z) - Deblurring via Stochastic Refinement [85.42730934561101]
条件付き拡散モデルに基づくブラインドデブロアリングのための代替フレームワークを提案する。
提案手法は,PSNRなどの歪み指標の点で競合する。
論文 参考訳(メタデータ) (2021-12-05T04:36:09Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。