論文の概要: Diffusion-Guided Knowledge Distillation for Weakly-Supervised Low-Light Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2507.07578v1
- Date: Thu, 10 Jul 2025 09:28:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.339186
- Title: Diffusion-Guided Knowledge Distillation for Weakly-Supervised Low-Light Semantic Segmentation
- Title(参考訳): 弱改良低照度セマンティックセマンティックセグメンテーションのための拡散誘導型知識蒸留
- Authors: Chunyan Wang, Dong Zhang, Jinhui Tang,
- Abstract要約: 弱教師付きセマンティックセグメンテーションは、弱いアノテーションを使用して各ピクセルにカテゴリラベルを割り当てることを目的としている。
低照度環境下では、画像品質の悪化と、監督の弱さの固有の制約により、既存の手法は著しく劣化する。
Weakly Supervised Low-light Semantic (DGKD-WLSS) のための拡散誘導型知識蒸留法を提案する。
- 参考スコア(独自算出の注目度): 32.4542162399975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Weakly-supervised semantic segmentation aims to assign category labels to each pixel using weak annotations, significantly reducing manual annotation costs. Although existing methods have achieved remarkable progress in well-lit scenarios, their performance significantly degrades in low-light environments due to two fundamental limitations: severe image quality degradation (e.g., low contrast, noise, and color distortion) and the inherent constraints of weak supervision. These factors collectively lead to unreliable class activation maps and semantically ambiguous pseudo-labels, ultimately compromising the model's ability to learn discriminative feature representations. To address these problems, we propose Diffusion-Guided Knowledge Distillation for Weakly-Supervised Low-light Semantic Segmentation (DGKD-WLSS), a novel framework that synergistically combines Diffusion-Guided Knowledge Distillation (DGKD) with Depth-Guided Feature Fusion (DGF2). DGKD aligns normal-light and low-light features via diffusion-based denoising and knowledge distillation, while DGF2 integrates depth maps as illumination-invariant geometric priors to enhance structural feature learning. Extensive experiments demonstrate the effectiveness of DGKD-WLSS, which achieves state-of-the-art performance in weakly supervised semantic segmentation tasks under low-light conditions. The source codes have been released at:https://github.com/ChunyanWang1/DGKD-WLSS.
- Abstract(参考訳): 弱教師付きセマンティックセグメンテーションは、弱いアノテーションを使用して各ピクセルにカテゴリラベルを割り当てることを目的としており、手動アノテーションのコストを大幅に削減する。
既存の手法は、鮮明なシナリオにおいて顕著な進歩を遂げているが、その性能は、画像品質の劣化(例えば、低コントラスト、ノイズ、色歪み)と、弱い監督の固有の制約という2つの基本的な制約により、低照度環境で著しく低下している。
これらの要因は集合的に信頼できないクラスのアクティベーションマップや意味的に曖昧な擬似ラベルにつながり、最終的には識別的特徴表現を学習するモデルの能力に妥協する。
これらの問題を解決するために,拡散誘導型知識蒸留(DGKD-WLSS)と深層誘導型特徴融合(DGF2)を相乗的に組み合わせた,拡散誘導型低照度セマンティックセグメンテーション(DGKD-WLSS)を提案する。
DGKDは拡散に基づく分極と知識の蒸留によって通常の光と低光の特徴を整列し、DGF2は構造的特徴学習を強化するために照明不変の幾何学的先行として深度マップを統合する。
低照度条件下での弱教師付きセマンティックセグメンテーションタスクにおいて、最先端の性能を実現するDGKD-WLSSの有効性を示す。
ソースコードはhttps://github.com/ChunyanWang1/DGKD-WLSSで公開されている。
関連論文リスト
- DSAGL: Dual-Stream Attention-Guided Learning for Weakly Supervised Whole Slide Image Classification [5.260725801393189]
超高解像度でリッチなセマンティックな内容のため,WSIは癌診断に重要である。
DSAGL(Dual-Stream Attention-Guided Learning, DSAGL)は、教師/学生のアーキテクチャと2重ストリーム設計を組み合わせた、弱教師付き分類フレームワークである。
論文 参考訳(メタデータ) (2025-05-29T11:07:16Z) - Towards Anomaly-Aware Pre-Training and Fine-Tuning for Graph Anomaly Detection [59.042018542376596]
グラフ異常検出(GAD)は近年注目度が高まりつつあるが、2つの重要な要因があるため、依然として困難である。
Anomaly-Aware Pre-Training and Fine-Tuning (APF)は、GADの課題を軽減するためのフレームワークである。
10のベンチマークデータセットに関する総合的な実験は、最先端のベースラインと比較してAPFの優れたパフォーマンスを検証する。
論文 参考訳(メタデータ) (2025-04-19T09:57:35Z) - Empowering Sparse-Input Neural Radiance Fields with Dual-Level Semantic Guidance from Dense Novel Views [66.1245505423179]
レンダリングされたセマンティクスは、レンダリングされたRGBよりも堅牢な拡張データとして扱うことができることを示す。
提案手法は, セマンティクスから導出されるガイダンスを組み込むことで, NeRFの性能を向上させる。
論文 参考訳(メタデータ) (2025-03-04T03:13:44Z) - LLDif: Diffusion Models for Low-light Emotion Recognition [15.095166627983566]
本稿では,超低照度(LL)環境に適した新しい拡散型表情認識(FER)フレームワークであるLDDifを紹介する。
このような条件下で撮影された画像は、しばしば低明度でコントラストが著しく減少し、従来の手法に挑戦する。
LLDifは、ラベル対応CLIP(LA-CLIP)、埋め込み事前ネットワーク(PNET)、低照度画像のノイズに対処するトランスフォーマーベースのネットワークを組み合わせた、新しい2段階のトレーニングプロセスでこれらの問題に対処する。
論文 参考訳(メタデータ) (2024-08-08T05:41:09Z) - AGLLDiff: Guiding Diffusion Models Towards Unsupervised Training-free Real-world Low-light Image Enhancement [37.274077278901494]
本稿では,AGLLDiff (Atribute Guidance Diffusion framework) を提案する。
AGLLDiffはパラダイムをシフトし、通常光画像の露出、構造、色などの望ましい属性をモデル化する。
我々の手法は、歪みベースのメトリクスと知覚ベースのメトリクスの点で、現在の非教師なしのLIEメソッドよりも優れています。
論文 参考訳(メタデータ) (2024-07-20T15:17:48Z) - 2D Feature Distillation for Weakly- and Semi-Supervised 3D Semantic
Segmentation [92.17700318483745]
合成訓練された2Dセマンティックセマンティックセグメンテーションネットワークから高レベル特徴情報を蒸留するアイデアに基づく画像誘導ネットワーク(IGNet)を提案する。
IGNetは、ScribbleKITTI上の弱い教師付きLiDARセマンティックセマンティックセグメンテーションの最先端の結果を達成し、8%のラベル付きポイントしか持たない完全な教師付きトレーニングに対して最大98%のパフォーマンスを誇っている。
論文 参考訳(メタデータ) (2023-11-27T07:57:29Z) - Reti-Diff: Illumination Degradation Image Restoration with Retinex-based
Latent Diffusion Model [59.08821399652483]
照明劣化画像復元(IDIR)技術は、劣化した画像の視認性を改善し、劣化した照明の悪影響を軽減することを目的としている。
これらのアルゴリズムのうち、拡散モデル(DM)に基づく手法は期待できる性能を示しているが、画像レベルの分布を予測する際に、重い計算要求や画素の不一致の問題に悩まされることが多い。
我々は、コンパクトな潜在空間内でDMを活用して、簡潔な指導先を生成することを提案し、IDIRタスクのためのReti-Diffと呼ばれる新しいソリューションを提案する。
Reti-Diff は Retinex-based Latent DM (RLDM) と Retinex-Guided Transformer (RG) の2つの鍵成分からなる。
論文 参考訳(メタデータ) (2023-11-20T09:55:06Z) - LLDiffusion: Learning Degradation Representations in Diffusion Models
for Low-Light Image Enhancement [118.83316133601319]
現在の低照度画像強調(LLIE)の深層学習法は、通常、ペア化されたデータから学んだピクセルワイドマッピングに依存している。
本稿では,拡散モデルを用いたLLIEの劣化認識学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-27T07:22:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。