論文の概要: PRISM: Precision-Recall Informed Data-Free Knowledge Distillation via Generative Diffusion
- arxiv url: http://arxiv.org/abs/2509.16897v1
- Date: Sun, 21 Sep 2025 03:16:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.026779
- Title: PRISM: Precision-Recall Informed Data-Free Knowledge Distillation via Generative Diffusion
- Title(参考訳): PRISM: 生成拡散による高精度インフォームド・インフォームド・データフリー知識蒸留
- Authors: Xuewan He, Jielei Wang, Zihan Cheng, Yuchen Su, Shiyue Huang, Guoming Lu,
- Abstract要約: データフリーな知識蒸留(DFKD)は、実際のIDデータにアクセスせずに教師から生徒に知識を伝達する。
既存の手法は小規模な画像ではよく機能するが、大規模な画像の合成ではモード崩壊に悩まされる。
PRISMは,光写実画像の合成のための高精度リコール情報化手法である。
- 参考スコア(独自算出の注目度): 4.591973713524844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data-free knowledge distillation (DFKD) transfers knowledge from a teacher to a student without access to the real in-distribution (ID) data. While existing methods perform well on small-scale images, they suffer from mode collapse when synthesizing large-scale images, resulting in limited knowledge transfer. Recently, leveraging advanced generative models to synthesize photorealistic images has emerged as a promising alternative. Nevertheless, directly using off-the-shelf diffusion to generate datasets faces the precision-recall challenges: 1) ensuring synthetic data aligns with the real distribution, and 2) ensuring coverage of the real ID manifold. In response, we propose PRISM, a precision-recall informed synthesis method. Specifically, we introduce Energy-guided Distribution Alignment to avoid the generation of out-of-distribution samples, and design the Diversified Prompt Engineering to enhance coverage of the real ID manifold. Extensive experiments on various large-scale image datasets demonstrate the superiority of PRISM. Moreover, we demonstrate that models trained with PRISM exhibit strong domain generalization.
- Abstract(参考訳): データフリーな知識蒸留(DFKD)は、実際のIDデータにアクセスせずに教師から生徒に知識を伝達する。
既存の手法は小規模な画像ではうまく機能するが、大規模な画像を合成する際にモード崩壊に悩まされ、知識伝達が制限される。
近年,フォトリアリスティック画像の合成に先進的な生成モデルを活用することが,有望な代替手段として浮上している。
それでも、データセットを生成するためにオフザシェルフ拡散を直接使用すると、正確なリコールの課題に直面します。
1) 実際の分布と合成データの整合性を確保すること、及び
2) 実ID多様体のカバレッジを確保する。
そこで本研究では,PRISMを提案する。
具体的には, エネルギー誘導配電アライメントを導入し, 分布外サンプルの発生を回避し, 実ID多様体のカバレッジを高めるため, 分散プロンプト工学を設計する。
様々な大規模画像データセットに対する大規模な実験は、PRISMの優位性を実証している。
さらに、PRISMで訓練されたモデルが強い領域一般化を示すことを示した。
関連論文リスト
- Enhancing Diffusion-based Dataset Distillation via Adversary-Guided Curriculum Sampling [22.21686398518648]
Adversary-Guided Curriculum Smpling (ACS) は、蒸留データセットを複数のキュリキュラに分割する。
ACSは、逆損失による拡散サンプリングプロセスをガイドし、サンプル画像に基づいて訓練された判別器に挑戦する。
ACSはImagewoofで4.1%、ImageNet-1kで2.1%の大幅な改善を実現している。
論文 参考訳(メタデータ) (2025-08-02T08:48:32Z) - When Model Knowledge meets Diffusion Model: Diffusion-assisted Data-free Image Synthesis with Alignment of Domain and Class [18.81528537866941]
オープンソースで事前トレーニングされたモデルは、多様なアプリケーションにとって大きな可能性を秘めているが、トレーニングデータが利用できない場合には、その実用性は低下する。
データ自由画像合成(DFIS)は、学習済みモデルの学習データ分布を元のデータにアクセスすることなく近似した画像を生成することを目的としている。
DDISはDiffusion-assisted Data-free Image Synthesis法として,テキストから画像への拡散モデルを利用した最初の画像合成法である。
論文 参考訳(メタデータ) (2025-06-18T11:51:40Z) - Boosting Zero-shot Stereo Matching using Large-scale Mixed Images Sources in the Real World [8.56549004133167]
ステレオマッチング法は、密度の高いピクセル単位の基底真理ラベルに依存している。
ラベル付きデータの不足と、合成画像と実世界の画像のドメインギャップは、注目すべき課題である。
視覚基盤モデルと大規模混合画像ソースの両方を活用する新しいフレームワーク textbfBooSTer を提案する。
論文 参考訳(メタデータ) (2025-05-13T14:24:38Z) - Large-Scale Data-Free Knowledge Distillation for ImageNet via Multi-Resolution Data Generation [53.95204595640208]
Data-Free Knowledge Distillation (DFKD)は、教師モデルから生徒モデルへの知識伝達を可能にする高度な技術である。
従来のアプローチでは、実際の画像の情報を活用することなく、高解像度で合成画像を生成してきた。
MUSEは、クラスアクティベーションマップ(CAM)を使用して、低い解像度で画像を生成し、生成された画像が重要なクラス固有の特徴を保持することを保証する。
論文 参考訳(メタデータ) (2024-11-26T02:23:31Z) - One Step Diffusion-based Super-Resolution with Time-Aware Distillation [60.262651082672235]
拡散に基づく画像超解像(SR)法は,低解像度画像から細部まで細部まで,高解像度画像の再構成に有望であることを示す。
近年,拡散型SRモデルの知識蒸留によるサンプリング効率の向上が試みられている。
我々は,効率的な画像超解像を実現するため,TAD-SRというタイムアウェア拡散蒸留法を提案する。
論文 参考訳(メタデータ) (2024-08-14T11:47:22Z) - Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - Rethinking Score Distillation as a Bridge Between Image Distributions [97.27476302077545]
提案手法は, 劣化した画像(ソース)を自然画像分布(ターゲット)に転送することを目的としている。
本手法は,複数の領域にまたがって容易に適用可能であり,特殊な手法の性能のマッチングや評価を行うことができる。
テキストから2D、テキストベースのNeRF最適化、絵画を実画像に変換すること、光学錯視生成、および3Dスケッチから実画像に変換することにおいて、その実用性を実証する。
論文 参考訳(メタデータ) (2024-06-13T17:59:58Z) - Training on Thin Air: Improve Image Classification with Generated Data [28.96941414724037]
Diffusion Inversionは、画像分類のための多種多様な高品質なトレーニングデータを生成するための、シンプルで効果的な方法である。
提案手法は,元のデータ分布を捕捉し,画像を安定拡散の潜在空間に反転させることにより,データカバレッジを確保する。
生成した画像が元のデータセットに取って代わることに成功した3つの重要なコンポーネントを特定します。
論文 参考訳(メタデータ) (2023-05-24T16:33:02Z) - High-Fidelity Synthesis with Disentangled Representation [60.19657080953252]
本稿では,不整合学習と高忠実度合成のためのID-GAN(Information-Distillation Generative Adrial Network)を提案する。
提案手法は, VAEモデルを用いて非交叉表現を学習し, 高忠実度合成のためのGAN生成器に追加のニュアンス変数で学習表現を蒸留する。
単純さにもかかわらず,提案手法は高効率であり,不整合表現を用いた最先端の手法に匹敵する画像生成品質を実現する。
論文 参考訳(メタデータ) (2020-01-13T14:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。