論文の概要: Seeing the Whole Picture: Distribution-Guided Data-Free Distillation for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2512.13175v1
- Date: Mon, 15 Dec 2025 10:37:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.625163
- Title: Seeing the Whole Picture: Distribution-Guided Data-Free Distillation for Semantic Segmentation
- Title(参考訳): 全体像を見る: セマンティックセグメンテーションのための配電型データフリー蒸留
- Authors: Hongxuan Sun, Tao Wu,
- Abstract要約: 本稿では,セマンティックセグメンテーションに適した新しいデータフリー蒸留フレームワークDFSSを紹介する。
画素を独立に扱う従来のアプローチとは異なり、DFSSは現実世界のシーンの構造的・文脈的連続性を尊重する。
我々の重要な洞察は、教師モデルからのバッチ正規化(BN)統計を活用して、近似分布サンプリング(ADS)をガイドすることである。
- 参考スコア(独自算出の注目度): 2.314355984893946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation requires a holistic understanding of the physical world, as it assigns semantic labels to spatially continuous and structurally coherent objects rather than to isolated pixels. However, existing data-free knowledge distillation (DFKD) methods-primarily designed for classification-often disregard this continuity, resulting in significant performance degradation when applied directly to segmentation tasks. In this paper, we introduce DFSS, a novel data-free distillation framework tailored for semantic segmentation. Unlike prior approaches that treat pixels independently, DFSS respects the structural and contextual continuity of real-world scenes. Our key insight is to leverage Batch Normalization (BN) statistics from a teacher model to guide Approximate Distribution Sampling (ADS), enabling the selection of data that better reflects the original training distribution-without relying on potentially misleading teacher predictions. Additionally, we propose Weighted Distribution Progressive Distillation (WDPD), which dynamically prioritizes reliable samples that are more closely aligned with the original data distribution early in training and gradually incorporates more challenging cases, mirroring the natural progression of learning in human perception. Extensive experiments on standard benchmarks demonstrate that DFSS consistently outperforms existing data-free distillation methods for semantic segmentation, achieving state-of-the-art results with significantly reduced reliance on auxiliary data.
- Abstract(参考訳): セマンティックセグメンテーションは物理的世界に対する全体論的理解を必要とし、セマンティックなラベルを孤立したピクセルではなく、空間的に連続的で構造的に整合したオブジェクトに割り当てる。
しかし、既存のデータフリー知識蒸留法(DFKD)はこの連続性を無視して主に分類用に設計されており、セグメント化タスクに直接適用すると性能が著しく低下する。
本稿では,セマンティックセグメンテーションに適した新しいデータフリー蒸留フレームワークDFSSを紹介する。
画素を独立に扱う従来のアプローチとは異なり、DFSSは現実世界のシーンの構造的・文脈的連続性を尊重する。
我々の重要な洞察は、教師モデルからのバッチ正規化(BN)統計を活用して近似分布サンプリング(ADS)をガイドし、教師の予測を誤解を招くことなく、元のトレーニング分布をよりよく反映したデータの選択を可能にすることである。
また,トレーニングの初期段階において,元のデータ分布とより緊密に一致した信頼性の高い試料を動的に優先順位付けし,人間の知覚における学習の自然な進行を反映した,より困難な事例を徐々に取り入れた重み付き分布進行蒸留(WDPD)を提案する。
DFSSはセマンティックセグメンテーションのための既存のデータフリー蒸留法を一貫して上回り、補助データへの依存を著しく減らし、最先端の結果を達成している。
関連論文リスト
- Reliable and Reproducible Demographic Inference for Fairness in Face Analysis [63.46525489354455]
本稿では、従来のエンドツーエンドトレーニングをモジュラートランスファー学習アプローチで置き換える、完全に再現可能なDAIパイプラインを提案する。
このパイプラインは、正確性、公正性、そしてアイデンティティ内整合性によって定義される、新たに導入された堅牢性の概念の3つの次元にわたって監査する。
以上の結果から,提案手法は特に民族性において,強い基準線を上回り,その特性はより困難であることが示唆された。
論文 参考訳(メタデータ) (2025-10-23T12:22:02Z) - ConformalSAM: Unlocking the Potential of Foundational Segmentation Models in Semi-Supervised Semantic Segmentation with Conformal Prediction [57.930531826380836]
本研究は,未ラベル画像のアノテータとして画素レベルの視覚課題におけるラベル不足に,基礎的セグメンテーションモデルが対処できるかどうかを考察する。
ConformalSAMは,まず対象ドメインのラベル付きデータを用いて基礎モデルを校正し,ラベルなしデータの信頼できないピクセルラベルをフィルタリングする新しいSSSSフレームワークである。
論文 参考訳(メタデータ) (2025-07-21T17:02:57Z) - Restoration Score Distillation: From Corrupted Diffusion Pretraining to One-Step High-Quality Generation [82.39763984380625]
Score Distillation (DSD) の原理的一般化である textitRestoration Score Distillation (RSD) を提案する。
RSDは、ぼやけた画像、不完全画像、低解像度画像など、広範囲の汚職タイプに対応している。
自然と科学の両方のデータセットの様々な復元作業において、教師モデルを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-19T17:21:03Z) - What Has Been Overlooked in Contrastive Source-Free Domain Adaptation: Leveraging Source-Informed Latent Augmentation within Neighborhood Context [28.634315143647385]
ソースフリードメイン適応(SFDA)は、ラベル付きデータセットを使用してトレーニングされたモデルを適用して、ラベルなしデータセットで効果的に実行する。
この適応は、この2つの領域の間にデータ分布のかなりの相違が存在する場合、特に重要である。
対照的なSFDAに適した,単純かつ高効率な潜伏増強法を提案する。
論文 参考訳(メタデータ) (2024-12-18T20:09:46Z) - Group Distributionally Robust Dataset Distillation with Risk Minimization [17.05513836324578]
本稿では,クラスタリングとリスク尺度の最小化を組み合わせ,DDを遂行する損失を最小化するアルゴリズムを提案する。
我々は、我々のアプローチに理論的根拠を与え、その効果的な一般化と部分群間のロバスト性を示す。
論文 参考訳(メタデータ) (2024-02-07T09:03:04Z) - Prompting to Distill: Boosting Data-Free Knowledge Distillation via
Reinforced Prompt [52.6946016535059]
データフリー知識蒸留(DFKD)は、元のトレーニングデータの依存をなくし、知識蒸留を行う。
本稿では,PmptDFD(PromptDFD)と呼ばれるプロンプトベースの手法を提案する。
本実験で示すように, 本手法は, 合成品質を大幅に向上し, 蒸留性能を著しく向上させる。
論文 参考訳(メタデータ) (2022-05-16T08:56:53Z) - A Simple Baseline for Semi-supervised Semantic Segmentation with Strong
Data Augmentation [74.8791451327354]
セマンティックセグメンテーションのためのシンプルで効果的な半教師付き学習フレームワークを提案する。
単純な設計とトレーニングのテクニックのセットは、半教師付きセマンティックセグメンテーションの性能を大幅に向上させることができる。
本手法は,Cityscapes と Pascal VOC データセットの半教師付き設定において,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2021-04-15T06:01:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。