論文の概要: Satellite Image Utilization for Dehazing with Swin Transformer-Hybrid U-Net and Watershed loss
- arxiv url: http://arxiv.org/abs/2509.00835v1
- Date: Sun, 31 Aug 2025 13:07:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.421261
- Title: Satellite Image Utilization for Dehazing with Swin Transformer-Hybrid U-Net and Watershed loss
- Title(参考訳): スイム変圧器・ハイブリッドU-ネットによるデハージングのための衛星画像の利用と流域の損失
- Authors: Jongwook Si, Sungyoung Kim,
- Abstract要約: 本稿では,Swin TransformerとU-Netを統合したハイブリッドデハージングフレームワークを提案する。
我々は,L2損失,誘導損失,新しい流域損失を組み合わせた複合的損失関数を導入し,構造的境界保存を向上し,画素レベルの精度を確保する。
実験結果から,提案手法はRICEおよびSateHaze1Kデータセットの最先端モデルよりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Satellite imagery plays a crucial role in various fields; however, atmospheric interference and haze significantly degrade image clarity and reduce the accuracy of information extraction. To address these challenges, this paper proposes a hybrid dehazing framework that integrates Swin Transformer and U-Net to balance global context learning and local detail restoration, called SUFERNOBWA. The proposed network employs SwinRRDB, a Swin Transformer-based Residual-in-Residual Dense Block, in both the encoder and decoder to effectively extract features. This module enables the joint learning of global contextual information and fine spatial structures, which is crucial for structural preservation in satellite image. Furthermore, we introduce a composite loss function that combines L2 loss, guided loss, and a novel watershed loss, which enhances structural boundary preservation and ensures pixel-level accuracy. This architecture enables robust dehazing under diverse atmospheric conditions while maintaining structural consistency across restored images. Experimental results demonstrate that the proposed method outperforms state-of-the-art models on both the RICE and SateHaze1K datasets. Specifically, on the RICE dataset, the proposed approach achieved a PSNR of 33.24 dB and an SSIM of 0.967, which is a significant improvement over existing method. This study provides an effective solution for mitigating atmospheric interference in satellite imagery and highlights its potential applicability across diverse remote sensing applications.
- Abstract(参考訳): 衛星画像は様々な分野で重要な役割を担っているが、大気干渉やヘイズは画像の明瞭度を著しく低下させ、情報抽出の精度を低下させる。
これらの課題に対処するために,Swin TransformerとU-Netを統合したハイブリッドデハージングフレームワークを提案し,グローバルな文脈学習とSUFERNOBWAと呼ばれる局部的な詳細復元のバランスをとる。
提案するネットワークでは,エンコーダとデコーダの両方に,Swin TransformerベースのResidual-in-Residual Dense BlockであるSwinRRDBを用いて,機能を効果的に抽出する。
このモジュールは、衛星画像の構造保存に欠かせない、グローバルな文脈情報と細かな空間構造を共同学習することを可能にする。
さらに,L2損失,誘導損失,新しい流域損失を組み合わせた複合的損失関数を導入し,構造的境界保存を向上し,画素レベルの精度を確保する。
このアーキテクチャは、様々な大気条件下での堅牢な脱湿を可能にすると同時に、復元された画像間の構造的整合性を維持する。
実験結果から,提案手法はRICEおよびSateHaze1Kデータセットの最先端モデルよりも優れていた。
具体的には、RICEデータセットにおいて、提案手法はPSNRが33.24dB、SSIMが0.967であり、既存の手法よりも大幅に改善されている。
本研究は、衛星画像における大気干渉を緩和するための効果的な解決策を提供し、多様なリモートセンシングアプリケーションにまたがる可能性を強調する。
関連論文リスト
- SU-ESRGAN: Semantic and Uncertainty-Aware ESRGAN for Super-Resolution of Satellite and Drone Imagery with Fine-Tuning for Cross Domain Evaluation [0.0]
GAN(Generative Adversarial Networks)は、画像の現実的な超解像(SR)を実現しているが、セマンティック一貫性と画素ごとの信頼性は欠如している。
本稿では,衛星画像にESRGANを統合するための最初のSRフレームワークであるSemantic and Uncertainty-Aware ESRGAN(SU-ESRGAN)を紹介する。
この新モデルは、広視野視野カメラ(FoV)を使用した衛星システムやUAVにおいて、カバー範囲の空間分解能のトレードオフとして有用である。
論文 参考訳(メタデータ) (2025-08-01T16:25:21Z) - Controllable Reference-Based Real-World Remote Sensing Image Super-Resolution with Generative Diffusion Priors [13.148815217684277]
超高分解能(SR)技術は、低分解能(LR)画像を用いて高分解能(HR)画像を再構成することにより、リモートセンシング画像の空間分解能を高めることができる。
既存のRefSR手法は、クロスセンサーの解像度ギャップや重要な土地被覆の変化など、現実世界の複雑さに苦しむ。
実世界のリモートセンシング画像SRのための新しい制御可能な参照ベース拡散モデルであるCRefDiffを提案する。
論文 参考訳(メタデータ) (2025-06-30T12:45:28Z) - Data Augmentation and Resolution Enhancement using GANs and Diffusion Models for Tree Segmentation [49.13393683126712]
都市森林は、環境の質を高め、都市における生物多様性を支援する上で重要な役割を担っている。
複雑な地形と異なる衛星センサーやUAV飛行高度による画像解像度の変化により、正確に木を検知することは困難である。
低解像度空中画像の品質を高めるため,GANと拡散モデルとドメイン適応を統合した新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2025-05-21T03:57:10Z) - A Diffusion-Based Framework for Terrain-Aware Remote Sensing Image Reconstruction [4.824120664293887]
SatelliteMakerは、さまざまなレベルのデータ損失で失われたデータを再構成する拡散ベースの方法である。
条件入力としてのDEM(Digital Elevation Model)は、リアルな画像を生成するために調整されたプロンプトを使用する。
分散損失に基づくVGG-Adapterモジュール。
論文 参考訳(メタデータ) (2025-04-16T14:19:57Z) - DehazeMamba: SAR-guided Optical Remote Sensing Image Dehazing with Adaptive State Space Model [27.83437788159158]
DehazeMambaはプログレッシブ・ヘイズ・デカップリング・フュージョン・ストラテジー上に構築された新規なSAR誘導脱ヘイズ・ネットワークである。
提案手法は,光-SAR差分解析によるヘイズ影響領域を動的に同定するHPDMと,特徴量評価に基づく2段階融合プロセスによるドメインシフトを緩和するプログレッシブ・フュージョン・モジュール (PFM) である。
大規模な実験により、DehazeMambaは最先端の手法を著しく上回り、PSNRの0.73dB改善と下流タスクの大幅な強化を実現している。
論文 参考訳(メタデータ) (2025-03-17T11:25:05Z) - Spatial-Contextual Discrepancy Information Compensation for GAN
Inversion [67.21442893265973]
空間的不一致情報補償に基づく新しいGAN-inversion法(SDIC)を提案する。
SDICは、オリジナルの画像と再構成/編集された画像との間の画像詳細のギャップを埋める。
提案手法は,画像インバージョンと編集作業の両方において,高速な推論速度で優れた歪み適応性トレードオフを実現する。
論文 参考訳(メタデータ) (2023-12-12T08:58:56Z) - Bridging Component Learning with Degradation Modelling for Blind Image
Super-Resolution [69.11604249813304]
視覚障害者のためのコンポーネント分解・協調最適化ネットワーク(CDCN)を提案する。
CDCNは入力LR画像を特徴空間の構造と詳細成分に分解する。
本稿では,HR画像の細部と構造復元過程を協調的に監督する,劣化駆動型学習戦略を提案する。
論文 参考訳(メタデータ) (2022-12-03T14:53:56Z) - Hierarchical Similarity Learning for Aliasing Suppression Image
Super-Resolution [64.15915577164894]
エイリアスの影響を抑制するために階層画像超解像ネットワーク(HSRNet)を提案する。
HSRNetは、他の作品よりも定量的かつ視覚的なパフォーマンスを向上し、エイリアスをより効果的に再送信する。
論文 参考訳(メタデータ) (2022-06-07T14:55:32Z) - Spatially-Adaptive Image Restoration using Distortion-Guided Networks [51.89245800461537]
空間的に変化する劣化に苦しむ画像の復元のための学習ベースソリューションを提案する。
本研究では、歪み局所化情報を活用し、画像中の困難な領域に動的に適応するネットワーク設計であるSPAIRを提案する。
論文 参考訳(メタデータ) (2021-08-19T11:02:25Z) - HighRes-net: Recursive Fusion for Multi-Frame Super-Resolution of
Satellite Imagery [55.253395881190436]
MFSR(Multi-frame Super-Resolution)は、問題に対するより根底的なアプローチを提供する。
これは、地球上の人間の影響を衛星で観測する上で重要である。
我々は,MFSRにおける最初のディープラーニングアプローチであるHighRes-netを紹介し,そのサブタスクをエンドツーエンドで学習する。
論文 参考訳(メタデータ) (2020-02-15T22:17:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。