論文の概要: A Dataset-free Self-supervised Disentangled Learning Method for Adaptive
Infrared and Visible Images Super-resolution Fusion
- arxiv url: http://arxiv.org/abs/2112.02869v1
- Date: Mon, 6 Dec 2021 08:50:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 18:01:14.826237
- Title: A Dataset-free Self-supervised Disentangled Learning Method for Adaptive
Infrared and Visible Images Super-resolution Fusion
- Title(参考訳): 適応的赤外・可視画像超解像融合のためのデータセットなし自己教師付き遠絡学習法
- Authors: Yuanjie Gu, Zhibo Xiao, Hailun Wang, Cheng Liu, and Shouyu Wang
- Abstract要約: 本研究では,SDL(Self-supervised disentangled Learning)という物理モデルに基づく,汎用的なデータセットフリーな自己教師付き学習フレームワークを提案する。
生成ネットワークにSDLフレームワークを適用したDep Retinex fusion (DRF) と呼ばれる新しい手法と、赤外線および可視像の超解像融合におけるRetinex理論を提案する。
- 参考スコア(独自算出の注目度): 3.911180906175196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study proposes a novel general dataset-free self-supervised learning
framework based-on physical model named self-supervised disentangled learning
(SDL), and proposes a novel method named Deep Retinex fusion (DRF) which
applies SDL framework with generative networks and Retinex theory in infrared
and visible images super-resolution fusion. Meanwhile, a generative dual-path
fusion network ZipperNet and adaptive fusion loss function Retinex loss are
designed for effectively high-quality fusion. The core idea of DRF (based-on
SDL) consists of two parts: one is generating components which are disentangled
from physical model using generative networks; the other is loss functions
which are designed based-on physical relation, and generated components are
combined by loss functions in training phase. Furthermore, in order to verify
the effectiveness of our proposed DRF, qualitative and quantitative comparisons
compared with six state-of-the-art methods are performed on three different
infrared and visible datasets. Our code will be open source available soon at
https://github.com/GuYuanjie/Deep-Retinex-fusion.
- Abstract(参考訳): 本研究では,新しい汎用データセットフリー自己教師付き学習フレームワークであるself-supervised disentangled learning (sdl) を提案し,赤外線および可視画像の超解像融合において,sdlフレームワークと生成ネットワークとretinex理論を適用したdeep retinex fusion (drf) という新しい手法を提案する。
一方, 生成型デュアルパス核融合ネットワークzippernetと適応核融合損失関数retinex lossは, 効果的に高品質核融合のために設計されている。
drf (based-on sdl) の核となる考え方は、生成ネットワークを用いて物理モデルから切り離されたコンポーネントを生成することと、物理関係に基づいて設計された損失関数と、トレーニングフェーズにおける損失関数によって生成されたコンポーネントを組み合わせることである。
さらに,提案するdrfの有効性を検証するために,3種類の異なる赤外線データと可視データを用いて,6つの最先端法との比較を行った。
私たちのコードは近々https://github.com/GuYuanjie/Deep-Retinex-fusion.comで公開されます。
関連論文リスト
- DAF-Net: A Dual-Branch Feature Decomposition Fusion Network with Domain Adaptive for Infrared and Visible Image Fusion [21.64382683858586]
赤外線と可視画像の融合は、両モードの相補的な情報を組み合わせて、より包括的なシーン理解を提供することを目的としている。
最大領域適応型デュアルブランチ機能分解融合ネットワーク(DAF-Net)を提案する。
MK-MMDを導入することで、DAF-Netは可視画像と赤外線画像の潜在特徴空間を効果的に整列し、融合画像の品質を向上させる。
論文 参考訳(メタデータ) (2024-09-18T02:14:08Z) - NeRF-DetS: Enhancing Multi-View 3D Object Detection with Sampling-adaptive Network of Continuous NeRF-based Representation [60.47114985993196]
NeRF-Detは、新しいビュー演算と3D知覚のタスクを統一する。
我々は,新しい3次元知覚ネットワーク構造であるNeRF-DetSを導入する。
NeRF-DetSはScanNetV2データセット上で競合するNeRF-Detより優れている。
論文 参考訳(メタデータ) (2024-04-22T06:59:03Z) - SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - Denoising Diffusion Models for Plug-and-Play Image Restoration [135.6359475784627]
本稿では,従来のプラグアンドプレイ方式を拡散サンプリングフレームワークに統合したDiffPIRを提案する。
DiffPIRは、差別的なガウスのデノイザーに依存するプラグアンドプレイIR法と比較して、拡散モデルの生成能力を継承することが期待されている。
論文 参考訳(メタデータ) (2023-05-15T20:24:38Z) - CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for
Multi-Modality Image Fusion [138.40422469153145]
本稿では,CDDFuse(Relationed-Driven Feature Decomposition Fusion)ネットワークを提案する。
近赤外可視画像融合や医用画像融合など,複数の融合タスクにおいてCDDFuseが有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-11-26T02:40:28Z) - Pyramid Grafting Network for One-Stage High Resolution Saliency
Detection [29.013012579688347]
我々は、異なる解像度画像から特徴を独立して抽出する、Praamid Grafting Network (PGNet) と呼ばれるワンステージフレームワークを提案する。
CNNブランチが壊れた詳細情報をよりホモロジーに組み合わせられるように、アテンションベースのクロスモデルグラフティングモジュール (CMGM) が提案されている。
我々は,4K-8K解像度で5,920個の画像を含む超高分解能塩度検出データセットUHRSDを新たに提供した。
論文 参考訳(メタデータ) (2022-04-11T12:22:21Z) - RFN-Nest: An end-to-end residual fusion network for infrared and visible
images [37.935940961760785]
赤外線および可視画像融合のためのエンドツーエンド融合ネットワークアーキテクチャ(RFN-Nest)を提案する。
RFNを訓練するために、新しい詳細保存損失関数と機能強化損失関数が提案される。
パブリックドメインデータセットの実験結果から,既存手法と比較して,我々のエンドツーエンドのフュージョンネットワークは最先端の手法よりも優れた性能を提供することが示された。
論文 参考訳(メタデータ) (2021-03-07T07:29:50Z) - Efficient and Model-Based Infrared and Visible Image Fusion Via
Algorithm Unrolling [24.83209572888164]
赤外線および可視画像融合(IVIF)は、赤外線画像からの熱放射情報を保持する画像と、可視画像からテクスチャの詳細を取得することを期待している。
従来のCNNベースのIVIFモデルの欠点を克服するために,モデルベース畳み込みニューラルネットワーク(CNN)モデルを提案する。
論文 参考訳(メタデータ) (2020-05-12T16:15:56Z) - FD-GAN: Generative Adversarial Networks with Fusion-discriminator for
Single Image Dehazing [48.65974971543703]
画像デハージングのためのFusion-Discriminator (FD-GAN) を用いた完全エンドツーエンドのジェネレータネットワークを提案する。
我々のモデルは、より自然でリアルなデハズド画像を生成することができ、色歪みは少なく、アーティファクトも少ない。
実験により, 提案手法は, 公開合成データセットと実世界の画像の両方において, 最先端の性能に達することが示された。
論文 参考訳(メタデータ) (2020-01-20T04:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。