論文の概要: U-Know-DiffPAN: An Uncertainty-aware Knowledge Distillation Diffusion Framework with Details Enhancement for PAN-Sharpening
- arxiv url: http://arxiv.org/abs/2412.06243v1
- Date: Mon, 09 Dec 2024 06:33:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:53:20.933717
- Title: U-Know-DiffPAN: An Uncertainty-aware Knowledge Distillation Diffusion Framework with Details Enhancement for PAN-Sharpening
- Title(参考訳): U-Know-DiffPAN:不確かさを意識した知識蒸留拡散フレームワーク
- Authors: Sungpyo Kim, Jeonghyeok Do, Jaehyup Lee, Munchurl Kim,
- Abstract要約: 本研究では,不確実な知識蒸留拡散フレームワークを提案する。
U-Know-DiffPANは、教師モデルから学生モデルへの特徴詳細の効果的な伝達のために、不確実性を認識した知識蒸留を取り入れている。
多様なデータセットの実験は、非常に最近の最先端の Pan-Sharpening 法よりも、我々の U-Know-DiffPAN の堅牢性と優れた性能を示している。
- 参考スコア(独自算出の注目度): 21.639802380314734
- License:
- Abstract: Conventional methods for PAN-sharpening often struggle to restore fine details due to limitations in leveraging high-frequency information. Moreover, diffusion-based approaches lack sufficient conditioning to fully utilize Panchromatic (PAN) images and low-resolution multispectral (LRMS) inputs effectively. To address these challenges, we propose an uncertainty-aware knowledge distillation diffusion framework with details enhancement for PAN-sharpening, called U-Know-DiffPAN. The U-Know-DiffPAN incorporates uncertainty-aware knowledge distillation for effective transfer of feature details from our teacher model to a student one. The teacher model in our U-Know-DiffPAN captures frequency details through freqeuncy selective attention, facilitating accurate reverse process learning. By conditioning the encoder on compact vector representations of PAN and LRMS and the decoder on Wavelet transforms, we enable rich frequency utilization. So, the high-capacity teacher model distills frequency-rich features into a lightweight student model aided by an uncertainty map. From this, the teacher model can guide the student model to focus on difficult image regions for PAN-sharpening via the usage of the uncertainty map. Extensive experiments on diverse datasets demonstrate the robustness and superior performance of our U-Know-DiffPAN over very recent state-of-the-art PAN-sharpening methods.
- Abstract(参考訳): pan-sharpeningの従来の方法は、高周波情報を利用する際の制限のため、細部を復元するのに苦労することが多い。
さらに、拡散に基づくアプローチでは、パンクロマティック(PAN)画像と低分解能マルチスペクトル(LRMS)入力を効果的に活用するのに十分な条件がない。
これらの課題に対処するため,本論文では,ウノウディフパン(U-Know-DiffPAN, U-Know-DiffPAN, U-Know-DiffPAN, U-Know-DiffPAN, U-Know-DiffPAN, U-Know-DiffPAN, U-Know-DiffPAN, U-Know-DiffPAN)と題する,不確実性を考慮した知識蒸留拡散フレームワークを提案する。
U-Know-DiffPANは、教師モデルから学生モデルへの特徴詳細の効果的な伝達のために、不確実性を認識した知識蒸留を取り入れている。
U-Know-DiffPANの教師モデルは、周波数の詳細をfreqeuncyの選択的な注意を通して捉え、正確な逆プロセス学習を容易にする。
PAN と LRMS のコンパクトベクトル表現にエンコーダを条件付け,ウェーブレット変換にデコーダを付加することにより,周波数利用の充実を図る。
そのため、高容量教師モデルでは、周波数豊富な特徴を不確実性マップによって支援された軽量の学生モデルに蒸留する。
このことから,教師モデルでは,不確実性マップの利用を通じて, Pan-sharpening のための困難な画像領域に焦点を合わせることができる。
多様なデータセットに対する大規模な実験は、非常に最近の最先端の Pan-Sharpening 法よりも、我々の U-Know-DiffPAN の堅牢性と優れた性能を示している。
関連論文リスト
- One Step Diffusion-based Super-Resolution with Time-Aware Distillation [60.262651082672235]
拡散に基づく画像超解像(SR)法は,低解像度画像から細部まで細部まで,高解像度画像の再構成に有望であることを示す。
近年,拡散型SRモデルの知識蒸留によるサンプリング効率の向上が試みられている。
我々は,効率的な画像超解像を実現するため,TAD-SRというタイムアウェア拡散蒸留法を提案する。
論文 参考訳(メタデータ) (2024-08-14T11:47:22Z) - ELiTe: Efficient Image-to-LiDAR Knowledge Transfer for Semantic Segmentation [15.404188754049317]
クロスモーダルな知識伝達は、LiDARセマンティックセグメンテーションにおけるポイントクラウド表現学習を強化する。
その可能性にもかかわらず、テキスタイルの教師の挑戦は、反復的で異種でない車のカメラ画像と、不正確な地上の真実のラベルによって生じる。
本稿では,この問題を解決するために,効率的な画像からLiDARへの知識伝達(ELiTe)パラダイムを提案する。
論文 参考訳(メタデータ) (2024-05-07T08:44:13Z) - Low-light Image Enhancement via CLIP-Fourier Guided Wavelet Diffusion [28.049668999586583]
本稿では,CLIP-Fourier Guided Wavelet Diffusion(CFWD)による新しい低照度画像強調手法を提案する。
CFWDは、複数のウェーブレット変換によって生成される周波数領域空間におけるマルチモーダル視覚言語情報を活用して、拡張プロセスの導出を行う。
提案手法は既存の最先端手法よりも優れ,画像品質と雑音抑制の大幅な進歩を実現している。
論文 参考訳(メタデータ) (2024-01-08T10:08:48Z) - Robustness-Reinforced Knowledge Distillation with Correlation Distance
and Network Pruning [3.1423836318272773]
知識蒸留(KD)は、効率的で軽量なモデルの性能を向上させる。
既存のKD技術のほとんどは、Kulback-Leibler(KL)の発散に依存している。
相関距離とネットワークプルーニングを利用したロバストネス強化知識蒸留(R2KD)を提案する。
論文 参考訳(メタデータ) (2023-11-23T11:34:48Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z) - Knowledge Diffusion for Distillation [53.908314960324915]
知識蒸留(KD)における教師と学生の表現ギャップ
これらの手法の本質は、ノイズ情報を捨て、その特徴の貴重な情報を蒸留することである。
DiffKDと呼ばれる新しいKD手法を提案し、拡散モデルを用いて特徴を明示的に識別し一致させる。
論文 参考訳(メタデータ) (2023-05-25T04:49:34Z) - Exploring Inconsistent Knowledge Distillation for Object Detection with
Data Augmentation [66.25738680429463]
物体検出のための知識蒸留(KD)は、教師モデルから知識を伝達することで、コンパクトな検出器を訓練することを目的としている。
教師モデルの反直感的知覚に固有の知識を蒸留することを目的とした,一貫性のない知識蒸留(IKD)を提案する。
本手法は, 1段, 2段, アンカーフリーの物体検出器において, 最先端のKDベースラインより優れる。
論文 参考訳(メタデータ) (2022-09-20T16:36:28Z) - Parameter-Efficient and Student-Friendly Knowledge Distillation [83.56365548607863]
本稿では, PESF-KDというパラメータ効率と学生に優しい知識蒸留法を提案し, 効率的かつ十分な知識伝達を実現する。
各種ベンチマーク実験により,PESF-KDは,高度オンライン蒸留法と比較して,競争力のある結果を得ながら,トレーニングコストを大幅に削減できることが示された。
論文 参考訳(メタデータ) (2022-05-28T16:11:49Z) - Distilling Dense Representations for Ranking using Tightly-Coupled
Teachers [52.85472936277762]
我々は最近提案された後期相互作用ColBERTモデルを改善するために知識蒸留を適用した。
ColBERT の表現型 MaxSim 演算子から知識を抽出し、関連度スコアを単純な点積に変換する。
提案手法はクエリ待ち時間を改善し,ColBERTの面倒なストレージ要件を大幅に削減する。
論文 参考訳(メタデータ) (2020-10-22T02:26:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。