論文の概要: SDAKD: Student Discriminator Assisted Knowledge Distillation for Super-Resolution Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2510.03870v1
- Date: Sat, 04 Oct 2025 16:40:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.310741
- Title: SDAKD: Student Discriminator Assisted Knowledge Distillation for Super-Resolution Generative Adversarial Networks
- Title(参考訳): SDAKD:超解像生成敵ネットワークのための学生識別支援知識蒸留
- Authors: Nikolaos Kaparinos, Vasileios Mezaris,
- Abstract要約: 学生識別器 Assisted Knowledge Distillation (SDAKD) は、学生識別器を導入した新しいGAN蒸留法である。
本実験では, ベースラインとSOTA GANの知識蒸留法を一貫した改良を行った。
- 参考スコア(独自算出の注目度): 5.972927416266618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) achieve excellent performance in generative tasks, such as image super-resolution, but their computational requirements make difficult their deployment on resource-constrained devices. While knowledge distillation is a promising research direction for GAN compression, effectively training a smaller student generator is challenging due to the capacity mismatch between the student generator and the teacher discriminator. In this work, we propose Student Discriminator Assisted Knowledge Distillation (SDAKD), a novel GAN distillation methodology that introduces a student discriminator to mitigate this capacity mismatch. SDAKD follows a three-stage training strategy, and integrates an adapted feature map distillation approach in its last two training stages. We evaluated SDAKD on two well-performing super-resolution GANs, GCFSR and Real-ESRGAN. Our experiments demonstrate consistent improvements over the baselines and SOTA GAN knowledge distillation methods. The SDAKD source code will be made openly available upon acceptance of the paper.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は、画像超解像などの生成タスクにおいて優れた性能を発揮するが、その計算要求はリソース制約されたデバイスへの展開を困難にしている。
知識蒸留は, GAN圧縮において有望な研究方向であるが, 学生と教師の識別器との容量ミスマッチにより, より小規模の学生ジェネレータを効果的に訓練することは困難である。
本研究は,学生識別器を用いた新しいGAN蒸留法であるSDAKDを提案する。
SDAKDは3段階の訓練戦略に従い、最後の2段階に適応した特徴マップ蒸留アプローチを統合する。
SDAKDを2つの高性能超解像GAN, GCFSR, Real-ESRGANで評価した。
本実験では, ベースラインとSOTA GANの知識蒸留法を一貫した改良を行った。
SDAKDのソースコードは、論文の受理時に公開されます。
関連論文リスト
- Relative Difficulty Distillation for Semantic Segmentation [54.76143187709987]
我々は,Relative Difficulty Distillation (RDD) というセマンティックセグメンテーションのための画素レベルのKDパラダイムを提案する。
RDDにより、教師ネットワークは、追加の最適化目標を伴わずに、学習焦点に対する効果的なガイダンスを提供することができる。
我々の研究は、RDDが既存のKDメソッドと統合して、上位パフォーマンスバウンダリを改善できることを示します。
論文 参考訳(メタデータ) (2024-07-04T08:08:25Z) - Grouped Knowledge Distillation for Deep Face Recognition [53.57402723008569]
軽量の学生ネットワークは、モデル容量が低いため、ターゲットロジットの適合が困難である。
一次KDと二元KDを保持するが、最終的なKD損失計算では二次KDを省略するグループ知識蒸留(GKD)を提案する。
論文 参考訳(メタデータ) (2023-04-10T09:04:38Z) - Discriminator-Cooperated Feature Map Distillation for GAN Compression [69.86835014810714]
そこで本研究では,DCDと略される発明的な識別器協調蒸留を,ジェネレータからより優れた特徴マップを精製するために提案する。
我々のDCDは既存のGAN圧縮法と比較して優れた結果を示した。
論文 参考訳(メタデータ) (2022-12-29T03:50:27Z) - Exploring Content Relationships for Distilling Efficient GANs [69.86835014810714]
本稿では,過剰パラメータ生成逆数ネットワーク(GAN)に対処するコンテンツ関係蒸留(CRD)を提案する。
従来のインスタンスレベルの蒸留とは対照的に,教師出力の内容を細粒度にスライスすることで,新しいGAN圧縮指向の知識を設計する。
提案した内容レベルの蒸留をベースとして,オンライン教師識別器を配置し,教師生成器と共同訓練した場合の更新を継続し,生徒生成器と共同訓練した場合の凍結を継続し,より良い対人訓練を行う。
論文 参考訳(メタデータ) (2022-12-21T15:38:12Z) - Feature-domain Adaptive Contrastive Distillation for Efficient Single
Image Super-Resolution [3.2453621806729234]
CNNベースのSISRは、多くのパラメータと高い計算コストを持ち、より良い性能を実現している。
知識蒸留(KD)は教師の有用な知識を学生に伝達する。
本稿では,軽量なSISRネットワークを効率的に訓練するための特徴領域適応型コントラスト蒸留(FACD)手法を提案する。
論文 参考訳(メタデータ) (2022-11-29T06:24:14Z) - Mind the Gap in Distilling StyleGANs [100.58444291751015]
StyleGANファミリは、非条件生成のためのGAN(Generative Adversarial Networks)として最も人気のあるものの一つである。
本稿では,StyleGAN-likeアーキテクチャの蒸留に関する総合的研究について述べる。
論文 参考訳(メタデータ) (2022-08-18T14:18:29Z) - Parameter-Efficient and Student-Friendly Knowledge Distillation [83.56365548607863]
本稿では, PESF-KDというパラメータ効率と学生に優しい知識蒸留法を提案し, 効率的かつ十分な知識伝達を実現する。
各種ベンチマーク実験により,PESF-KDは,高度オンライン蒸留法と比較して,競争力のある結果を得ながら,トレーニングコストを大幅に削減できることが示された。
論文 参考訳(メタデータ) (2022-05-28T16:11:49Z) - ErGAN: Generative Adversarial Networks for Entity Resolution [8.576633582363202]
学習ベースのエンティティ解決の大きな課題は、トレーニングのラベルコストを削減する方法です。
そこで本研究では,erganと呼ばれる新しい深層学習手法を提案する。
ErGANのラベリングと学習効率を実証的に検証するための広範な実験を実施しました。
論文 参考訳(メタデータ) (2020-12-18T01:33:58Z) - P-KDGAN: Progressive Knowledge Distillation with GANs for One-class
Novelty Detection [24.46562699161406]
1クラスのノベルティ検出は、期待される通常のインスタンスに適合しない異常なインスタンスを特定することである。
ディープニューラルネットワークは、リソース制限されたデバイスにデプロイするには過度にパラメータ化されている。
GANによるプログレッシブ・ナレッジ蒸留(PKDGAN)は,コンパクトで高速な新規検出ネットワークを学習するために提案されている。
論文 参考訳(メタデータ) (2020-07-14T10:44:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。