論文の概要: Real-World Remote Sensing Image Dehazing: Benchmark and Baseline
- arxiv url: http://arxiv.org/abs/2503.17966v1
- Date: Sun, 23 Mar 2025 07:15:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:34:15.365220
- Title: Real-World Remote Sensing Image Dehazing: Benchmark and Baseline
- Title(参考訳): リアルタイムリモートセンシング画像の劣化:ベンチマークとベースライン
- Authors: Zeng-Hui Zhu, Wei Lu, Si-Bao Chen, Chris H. Q. Ding, Jin Tang, Bin Luo,
- Abstract要約: 実世界のリモートセンシングのハージーなイメージペアの不足により、既存の手法は、主に合成データセットに頼らざるを得なくなった。
実世界のハズー画像とデハズー画像のペアを含む最初の大規模データセットであるRRSHID(Real-World Remote Sensing Hazy Image dataset)を紹介する。
そこで本研究では,実世界のRSIDに適した新しいフレームワークMCAF-Netを提案する。
- 参考スコア(独自算出の注目度): 19.747354924759104
- License:
- Abstract: Remote Sensing Image Dehazing (RSID) poses significant challenges in real-world scenarios due to the complex atmospheric conditions and severe color distortions that degrade image quality. The scarcity of real-world remote sensing hazy image pairs has compelled existing methods to rely primarily on synthetic datasets. However, these methods struggle with real-world applications due to the inherent domain gap between synthetic and real data. To address this, we introduce Real-World Remote Sensing Hazy Image Dataset (RRSHID), the first large-scale dataset featuring real-world hazy and dehazed image pairs across diverse atmospheric conditions. Based on this, we propose MCAF-Net, a novel framework tailored for real-world RSID. Its effectiveness arises from three innovative components: Multi-branch Feature Integration Block Aggregator (MFIBA), which enables robust feature extraction through cascaded integration blocks and parallel multi-branch processing; Color-Calibrated Self-Supervised Attention Module (CSAM), which mitigates complex color distortions via self-supervised learning and attention-guided refinement; and Multi-Scale Feature Adaptive Fusion Module (MFAFM), which integrates features effectively while preserving local details and global context. Extensive experiments validate that MCAF-Net demonstrates state-of-the-art performance in real-world RSID, while maintaining competitive performance on synthetic datasets. The introduction of RRSHID and MCAF-Net sets new benchmarks for real-world RSID research, advancing practical solutions for this complex task. The code and dataset are publicly available at \url{https://github.com/lwCVer/RRSHID}.
- Abstract(参考訳): リモートセンシング画像デハジング(RSID)は、複雑な大気条件と、画質を劣化させる厳しい色歪みにより、現実のシナリオにおいて重大な課題を生んでいる。
実世界のリモートセンシングのハージーなイメージペアの不足により、既存の手法は、主に合成データセットに頼らざるを得なくなった。
しかし、これらの手法は、合成データと実データの間に固有の領域ギャップがあるため、現実世界の応用に苦しむ。
これを解決するために,実世界リモートセンシングヘイズ画像データセット (RRSHID) を導入し,様々な大気環境にまたがる実世界ヘイズ画像とデハズ画像のペアを用いた最初の大規模データセットを提案する。
そこで本研究では,実世界のRSIDに適した新しいフレームワークMCAF-Netを提案する。
MFIBA(Multi-branch Feature Integration Block Aggregator)は、カスケード統合ブロックと並列マルチブランチ処理による堅牢な特徴抽出を可能にし、CSAM(Color-Calibrated Self-Supervised Attention Module)は、自己教師付き学習と注意誘導による複雑な色歪みを軽減し、MFAFM(Multi-Scale Feature Adaptive Fusion Module)は、局所的な詳細とグローバルなコンテキストを保存しながら、機能を効果的に統合する。
大規模な実験により、MCAF-Netは、合成データセット上での競合性能を維持しながら、実世界のRSIDにおける最先端のパフォーマンスを示す。
RRSHIDとMCAF-Netの導入により、現実世界のRSID研究のための新しいベンチマークが設定され、この複雑なタスクの実用的な解決が進められた。
コードとデータセットは \url{https://github.com/lwCVer/RRSHID} で公開されている。
関連論文リスト
- PolSAM: Polarimetric Scattering Mechanism Informed Segment Anything Model [76.95536611263356]
PolSARデータは、そのリッチで複雑な特徴のために、ユニークな課題を提示する。
複素数値データ、偏光特性、振幅画像などの既存のデータ表現が広く使われている。
PolSARのほとんどの機能抽出ネットワークは小さく、機能を効果的にキャプチャする能力を制限している。
本稿では,ドメイン固有の散乱特性と新規なプロンプト生成戦略を統合したSegment Anything Model (SAM) であるPolarimetric Scattering Mechanism-Informed SAM (PolSAM)を提案する。
論文 参考訳(メタデータ) (2024-12-17T09:59:53Z) - Enhanced Super-Resolution Training via Mimicked Alignment for Real-World Scenes [51.92255321684027]
トレーニング中、LR入力とHR画像の整列により、誤調整問題を緩和する新しいプラグアンドプレイモジュールを提案する。
具体的には,従来のLR試料の特徴を保ちながらHRと整合する新しいLR試料を模倣する。
本手法を合成および実世界のデータセット上で総合的に評価し,SRモデルのスペクトル間での有効性を実証した。
論文 参考訳(メタデータ) (2024-10-07T18:18:54Z) - WTCL-Dehaze: Rethinking Real-world Image Dehazing via Wavelet Transform and Contrastive Learning [17.129068060454255]
自律運転や監視といったアプリケーションには、単一イメージのデハジングが不可欠だ。
コントラスト損失と離散ウェーブレット変換を統合した半教師付きデハージングネットワークを提案する。
提案アルゴリズムは,最先端の単一画像復調法と比較して,優れた性能とロバスト性を実現している。
論文 参考訳(メタデータ) (2024-10-07T05:36:11Z) - Towards Realistic Data Generation for Real-World Super-Resolution [58.99206459754721]
RealDGenは、現実世界の超解像のために設計された教師なし学習データ生成フレームワークである。
我々は,コンテンツ分解脱結合拡散モデルに統合されたコンテンツと劣化抽出戦略を開発する。
実験により、RealDGenは、現実世界の劣化を反映する大規模で高品質なペアデータを生成するのに優れていることが示された。
論文 参考訳(メタデータ) (2024-06-11T13:34:57Z) - IRSRMamba: Infrared Image Super-Resolution via Mamba-based Wavelet Transform Feature Modulation Model [7.842507196763463]
IRSRMambaはマルチスケール適応のためのウェーブレット変換特徴変調を統合する新しいフレームワークである。
IRSRMambaはPSNR、SSIM、知覚品質において最先端の手法より優れている。
この研究は、高忠実度赤外線画像強調のための有望な方向として、Mambaベースのアーキテクチャを確立する。
論文 参考訳(メタデータ) (2024-05-16T07:49:24Z) - RaSim: A Range-aware High-fidelity RGB-D Data Simulation Pipeline for Real-world Applications [55.24463002889]
我々は深度データ合成に焦点をあて、レンジ対応RGB-Dデータシミュレーションパイプライン(RaSim)を開発した。
特に、実世界のセンサーの撮像原理を模倣して高忠実度深度データを生成する。
RaSimは、下流のRGB-D知覚タスクで微調整をすることなく、現実世界のシナリオに直接適用することができる。
論文 参考訳(メタデータ) (2024-04-05T08:52:32Z) - Learning Dual-Level Deformable Implicit Representation for Real-World Scale Arbitrary Super-Resolution [81.74583887661794]
整数と非整数のスケーリング要素を併用した,新しい実世界のスーパーレゾリューションベンチマークを構築した。
実世界の任意の超解像を解くために,Dual-level Deformable Implicit Representation (DDIR)を提案する。
実世界の任意の超解像のためのRealArbiSRおよびRealSRベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-16T13:44:42Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - Rethinking Blur Synthesis for Deep Real-World Image Deblurring [4.00114307523959]
本稿では,撮影過程をシミュレートする,新しいリアルなボケ合成パイプラインを提案する。
機能領域における非局所的依存関係と局所的コンテキストを同時にキャプチャする効果的なデブロアリングモデルを開発する。
3つの実世界のデータセットに関する総合的な実験により、提案したデブロアリングモデルは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-09-28T06:50:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。