論文の概要: Physics Driven Deep Retinex Fusion for Adaptive Infrared and Visible
Image Fusion
- arxiv url: http://arxiv.org/abs/2112.02869v4
- Date: Tue, 21 Mar 2023 06:34:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 05:43:25.451278
- Title: Physics Driven Deep Retinex Fusion for Adaptive Infrared and Visible
Image Fusion
- Title(参考訳): 適応赤外・可視画像融合のための物理駆動ディープレチネックス核融合
- Authors: Yuanjie Gu, Zhibo Xiao, Yinghan Guan, Haoran Dai, Cheng Liu, Liang Xue
and Shouyu Wang
- Abstract要約: 畳み込みニューラルネットワークは、画像融合と超解像のための輝かしいツールになった。
Deep Retinex Fusion (DRF) は、適応赤外(IR)と可視(VIS)画像の超解像融合のためのデータセットのない手法である。
DRFは、IRとVIS情報を適応的にバランスさせ、優れたノイズ免疫を有する。
- 参考スコア(独自算出の注目度): 2.9591172349593102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks have turned into an illustrious tool for image
fusion and super-resolution. However, their excellent performance cannot work
without large fixed-paired datasets; and additionally, these high-demanded
ground truth data always cannot be obtained easily in fusion tasks. In this
study, we show that, the structures of generative networks capture a great deal
of image feature priors, and then these priors are sufficient to reconstruct
high-quality fused super-resolution result using only low-resolution inputs. By
this way, we propose a novel self-supervised dataset-free method for adaptive
infrared (IR) and visible (VIS) image super-resolution fusion named Deep
Retinex Fusion (DRF). The key idea of DRF is first generating component priors
which are disentangled from physical model using our designed generative
networks ZipperNet, LightingNet and AdjustingNet, then combining these priors
which captured by networks via adaptive fusion loss functions based on Retinex
theory, and finally reconstructing the super-resolution fusion results.
Furthermore, in order to verify the effectiveness of our reported DRF, both
qualitative and quantitative experiments via comparing with other
state-of-the-art methods are performed using different test sets. These results
prove that, comparing with large datasets trained methods, DRF which works
without any dataset achieves the best super-resolution fusion performance; and
more importantly, DRF can adaptively balance IR and VIS information and has
good noise immunity. DRF codes are open source available at
https://github.com/GuYuanjie/Deep-Retinex-fusion.
- Abstract(参考訳): 畳み込みニューラルネットワークは、画像融合と超解像のための輝かしいツールになった。
しかし、それらの優れた性能は、大きな固定ペアデータセットなしでは機能せず、また、これらの高要求の地上真理データは常に融合タスクで簡単には得られない。
本研究では,生成ネットワークの構造が大量の画像特徴をキャプチャし,低分解能入力のみを用いて高品質の融合超解像を再構成するのに十分であることを示す。
このようにして、適応赤外(IR)と可視(VIS)画像超解像融合のための新しい自己教師付きデータセットフリー手法、Deep Retinex Fusion (DRF)を提案する。
DRFの鍵となる考え方は、まず設計した生成ネットワークZipperNet、LightingNet、AdjustingNetを用いて物理モデルから切り離されたコンポーネントの事前生成を行い、次にRetinex理論に基づく適応核融合損失関数を介してネットワークによって捕捉されたこれらの先行情報を組み合わせ、最終的に超分解能核融合結果を再構成する。
さらに, DRFの有効性を検証するために, 異なるテストセットを用いて, 他の最先端手法との比較による質的, 定量的実験を行った。
これらの結果から、データセットを使わずに機能するDRFは、大規模なデータセットトレーニング手法と比較して、最高の超解像融合性能を達成することが証明された。
DRFコードはhttps://github.com/GuYuanjie/Deep-Retinex-fusionで公開されている。
関連論文リスト
- DAF-Net: A Dual-Branch Feature Decomposition Fusion Network with Domain Adaptive for Infrared and Visible Image Fusion [21.64382683858586]
赤外線と可視画像の融合は、両モードの相補的な情報を組み合わせて、より包括的なシーン理解を提供することを目的としている。
最大領域適応型デュアルブランチ機能分解融合ネットワーク(DAF-Net)を提案する。
MK-MMDを導入することで、DAF-Netは可視画像と赤外線画像の潜在特徴空間を効果的に整列し、融合画像の品質を向上させる。
論文 参考訳(メタデータ) (2024-09-18T02:14:08Z) - NeRF-DetS: Enhancing Multi-View 3D Object Detection with Sampling-adaptive Network of Continuous NeRF-based Representation [60.47114985993196]
NeRF-Detは、新しいビュー演算と3D知覚のタスクを統一する。
我々は,新しい3次元知覚ネットワーク構造であるNeRF-DetSを導入する。
NeRF-DetSはScanNetV2データセット上で競合するNeRF-Detより優れている。
論文 参考訳(メタデータ) (2024-04-22T06:59:03Z) - SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - Denoising Diffusion Models for Plug-and-Play Image Restoration [135.6359475784627]
本稿では,従来のプラグアンドプレイ方式を拡散サンプリングフレームワークに統合したDiffPIRを提案する。
DiffPIRは、差別的なガウスのデノイザーに依存するプラグアンドプレイIR法と比較して、拡散モデルの生成能力を継承することが期待されている。
論文 参考訳(メタデータ) (2023-05-15T20:24:38Z) - CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for
Multi-Modality Image Fusion [138.40422469153145]
本稿では,CDDFuse(Relationed-Driven Feature Decomposition Fusion)ネットワークを提案する。
近赤外可視画像融合や医用画像融合など,複数の融合タスクにおいてCDDFuseが有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-11-26T02:40:28Z) - Pyramid Grafting Network for One-Stage High Resolution Saliency
Detection [29.013012579688347]
我々は、異なる解像度画像から特徴を独立して抽出する、Praamid Grafting Network (PGNet) と呼ばれるワンステージフレームワークを提案する。
CNNブランチが壊れた詳細情報をよりホモロジーに組み合わせられるように、アテンションベースのクロスモデルグラフティングモジュール (CMGM) が提案されている。
我々は,4K-8K解像度で5,920個の画像を含む超高分解能塩度検出データセットUHRSDを新たに提供した。
論文 参考訳(メタデータ) (2022-04-11T12:22:21Z) - RFN-Nest: An end-to-end residual fusion network for infrared and visible
images [37.935940961760785]
赤外線および可視画像融合のためのエンドツーエンド融合ネットワークアーキテクチャ(RFN-Nest)を提案する。
RFNを訓練するために、新しい詳細保存損失関数と機能強化損失関数が提案される。
パブリックドメインデータセットの実験結果から,既存手法と比較して,我々のエンドツーエンドのフュージョンネットワークは最先端の手法よりも優れた性能を提供することが示された。
論文 参考訳(メタデータ) (2021-03-07T07:29:50Z) - Efficient and Model-Based Infrared and Visible Image Fusion Via
Algorithm Unrolling [24.83209572888164]
赤外線および可視画像融合(IVIF)は、赤外線画像からの熱放射情報を保持する画像と、可視画像からテクスチャの詳細を取得することを期待している。
従来のCNNベースのIVIFモデルの欠点を克服するために,モデルベース畳み込みニューラルネットワーク(CNN)モデルを提案する。
論文 参考訳(メタデータ) (2020-05-12T16:15:56Z) - FD-GAN: Generative Adversarial Networks with Fusion-discriminator for
Single Image Dehazing [48.65974971543703]
画像デハージングのためのFusion-Discriminator (FD-GAN) を用いた完全エンドツーエンドのジェネレータネットワークを提案する。
我々のモデルは、より自然でリアルなデハズド画像を生成することができ、色歪みは少なく、アーティファクトも少ない。
実験により, 提案手法は, 公開合成データセットと実世界の画像の両方において, 最先端の性能に達することが示された。
論文 参考訳(メタデータ) (2020-01-20T04:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。