論文の概要: Guided Real Image Dehazing using YCbCr Color Space
- arxiv url: http://arxiv.org/abs/2412.17496v1
- Date: Mon, 23 Dec 2024 11:53:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:57:56.538222
- Title: Guided Real Image Dehazing using YCbCr Color Space
- Title(参考訳): YCbCr色空間を用いたガイド画像デハージング
- Authors: Wenxuan Fang, Jankai Fan, Yu Zheng, Jiangwei Weng, Ying Tai, Jun Li,
- Abstract要約: 本稿では, YCbCr のRGB よりも優れた構造特性を生かした新規な構造ガイドデハジングネットワーク (SGDN) を提案する。
効果的な教師付き学習のために,実世界適応型Hazeデータセットを導入する。
実験により,本手法は複数の実世界の煙・煙・煙のデータセットにまたがって既存の最先端手法を超越していることが示された。
- 参考スコア(独自算出の注目度): 25.771316524011382
- License:
- Abstract: Image dehazing, particularly with learning-based methods, has gained significant attention due to its importance in real-world applications. However, relying solely on the RGB color space often fall short, frequently leaving residual haze. This arises from two main issues: the difficulty in obtaining clear textural features from hazy RGB images and the complexity of acquiring real haze/clean image pairs outside controlled environments like smoke-filled scenes. To address these issues, we first propose a novel Structure Guided Dehazing Network (SGDN) that leverages the superior structural properties of YCbCr features over RGB. It comprises two key modules: Bi-Color Guidance Bridge (BGB) and Color Enhancement Module (CEM). BGB integrates a phase integration module and an interactive attention module, utilizing the rich texture features of the YCbCr space to guide the RGB space, thereby recovering clearer features in both frequency and spatial domains. To maintain tonal consistency, CEM further enhances the color perception of RGB features by aggregating YCbCr channel information. Furthermore, for effective supervised learning, we introduce a Real-World Well-Aligned Haze (RW$^2$AH) dataset, which includes a diverse range of scenes from various geographical regions and climate conditions. Experimental results demonstrate that our method surpasses existing state-of-the-art methods across multiple real-world smoke/haze datasets. Code and Dataset: \textcolor{blue}{\url{https://github.com/fiwy0527/AAAI25_SGDN.}}
- Abstract(参考訳): 画像のデハジング、特に学習に基づく手法は、現実世界の応用において重要であることから、大きな注目を集めている。
しかし、RGB色空間のみに依存すると、しばしば不足し、残留した迷路が残る。
これは、ぼんやりしたRGB画像から明瞭なテクスチャ特徴を得るのが困難であることと、煙に満ちたシーンのような制御された環境の外で本物のヘイズ/クリーンなイメージペアを取得するのが複雑であることの2つの問題から生じる。
これらの問題に対処するために、まず、RGBよりもYCbCrの優れた構造特性を活用する新しい構造ガイドデハジングネットワーク(SGDN)を提案する。
BGB(Bi-Color Guidance Bridge)とCEM(Color Enhancement Module)の2つの主要なモジュールで構成されている。
BGBは位相積分モジュールと対話型アテンションモジュールを統合し、YCbCr空間の豊かなテクスチャ特性を利用してRGB空間を案内し、周波数領域と空間領域の両方でより明確な特徴を回復する。
調音整合性を維持するため、CEMはYCbCrチャネル情報を集約することでRGB特徴の色知覚をさらに強化する。
さらに、効果的な教師付き学習のために、様々な地理的地域や気候条件からの多様なシーンを含むRW$^2$AH(Real-World Well-Aligned Haze)データセットを導入する。
実験により,本手法は複数の実世界の煙・煙・煙のデータセットにまたがって既存の最先端手法を超越していることが示された。
コードとデータセット: \textcolor{blue}{\url{https://github.com/fiwy0527/AAAI25_SGDN
(3)
関連論文リスト
- Rethinking RGB Color Representation for Image Restoration Models [55.81013540537963]
各画素に局所的な近傍構造情報を保持するために表現を拡大する。
画素あたりの損失に対する表現空間の置換は、画像復元モデルのトレーニングを容易にする。
私たちの空間は、色と局所構造の両方を再構築することで、全体的なメトリクスを一貫して改善します。
論文 参考訳(メタデータ) (2024-02-05T06:38:39Z) - The Devil is in the Details: Boosting Guided Depth Super-Resolution via
Rethinking Cross-Modal Alignment and Aggregation [41.12790340577986]
誘導深度超解像(GDSR)は、同じシーンの高解像度のRGB画像を用いて、行方不明の深度の詳細を復元する。
それまでのアプローチでは、マルチモーダル入力の不均一性と相補性に苦慮し、モーダルなミスアライメント、幾何学的なミスアライメント、特徴選択といった問題を無視してきた。
論文 参考訳(メタデータ) (2024-01-16T05:37:08Z) - Residual Spatial Fusion Network for RGB-Thermal Semantic Segmentation [19.41334573257174]
従来の方法では、主にRGBイメージを使用し、照明条件、例えば暗闇の影響が大きい。
近年の研究では、セグメンテーションの補正モダリティとして、熱画像は夜のシナリオに頑健であることが示されている。
本稿では,RGB-TセマンティックセグメンテーションのためのResidual Spatial Fusion Network (RSFNet)を提案する。
論文 参考訳(メタデータ) (2023-06-17T14:28:08Z) - Spherical Space Feature Decomposition for Guided Depth Map
Super-Resolution [123.04455334124188]
誘導深度マップ超解像(GDSR)は、低解像度(LR)深度マップに高解像度(HR)RGB画像を含む追加情報を加えることを目的としている。
本稿では,この問題を解決するために,Spherical Space Feature Decomposition Network (SSDNet)を提案する。
提案手法は,4つのテストデータセットの最先端結果と実世界のシーンへの一般化を実現する。
論文 参考訳(メタデータ) (2023-03-15T21:22:21Z) - Hyperspectral Image Super Resolution with Real Unaligned RGB Guidance [11.711656319221072]
異種特徴抽出,多段階特徴アライメント,注意的特徴融合を含むHSI融合ネットワークを提案する。
本手法は, 既存の単一画像と核融合による超解像法に対して, 定量的評価と視覚的比較において明らかに改善されている。
論文 参考訳(メタデータ) (2023-02-13T11:56:45Z) - Mirror Complementary Transformer Network for RGB-thermal Salient Object
Detection [16.64781797503128]
RGB-熱的物体検出(RGB-T SOD)は、視光対と熱赤外画像対の一般的な顕著な物体を見つけることを目的としている。
本稿では,RGB-T SODのための新しいミラー補完トランスフォーマネットワーク(MCNet)を提案する。
ベンチマークとVT723データセットの実験により、提案手法は最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-07-07T20:26:09Z) - Semantic-embedded Unsupervised Spectral Reconstruction from Single RGB
Images in the Wild [48.44194221801609]
この課題に対処するため、我々は、新しい軽量でエンドツーエンドの学習ベースのフレームワークを提案する。
我々は、効率的なカメラスペクトル応答関数推定により、検索されたHS画像から入力されたRGB画像と再投影されたRGB画像の差を徐々に広げる。
提案手法は最先端の教師なし手法よりも優れており,いくつかの設定下では最新の教師付き手法よりも優れている。
論文 参考訳(メタデータ) (2021-08-15T05:19:44Z) - Cross-modality Discrepant Interaction Network for RGB-D Salient Object
Detection [78.47767202232298]
本稿では,RGB-D SODのためのクロスモダリティ離散相互作用ネットワーク(CDINet)を提案する。
2つのコンポーネントは、効果的な相互モダリティ相互作用を実装するように設計されている。
我々のネットワークは、定量的にも質的にも15ドルの最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-08-04T11:24:42Z) - Data-Level Recombination and Lightweight Fusion Scheme for RGB-D Salient
Object Detection [73.31632581915201]
深部特徴抽出に先立って,RGBとD(深部)を融合する新たなデータレベル組換え手法を提案する。
新たに設計された3重ストリームネットワークをこれらの新しい定式化データ上に適用し,RGBとDのチャネルワイドな相補的融合状態を実現する。
論文 参考訳(メタデータ) (2020-08-07T10:13:05Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。