論文の概要: Dynamic Degradation for Image Restoration and Fusion
- arxiv url: http://arxiv.org/abs/2104.12347v1
- Date: Mon, 26 Apr 2021 04:59:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-28 01:46:39.916041
- Title: Dynamic Degradation for Image Restoration and Fusion
- Title(参考訳): 画像復元・融合における動的劣化
- Authors: Aiqing Fang, Xinbo Zhao, Jiaqi Yang, Yanning Zhang
- Abstract要約: DDRF-Netは静的復元と融合、動的劣化という2つの問題を解決することができる。
我々の手法は最先端の手法よりも優れている。
- 参考スコア(独自算出の注目度): 39.57775283256239
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The deep-learning-based image restoration and fusion methods have achieved
remarkable results. However, the existing restoration and fusion methods paid
little research attention to the robustness problem caused by dynamic
degradation. In this paper, we propose a novel dynamic image restoration and
fusion neural network, termed as DDRF-Net, which is capable of solving two
problems, i.e., static restoration and fusion, dynamic degradation. In order to
solve the static fusion problem of existing methods, dynamic convolution is
introduced to learn dynamic restoration and fusion weights. In addition, a
dynamic degradation kernel is proposed to improve the robustness of image
restoration and fusion. Our network framework can effectively combine image
degradation with image fusion tasks, provide more detailed information for
image fusion tasks through image restoration loss, and optimize image
restoration tasks through image fusion loss. Therefore, the stumbling blocks of
deep learning in image fusion, e.g., static fusion weight and specifically
designed network architecture, are greatly mitigated. Extensive experiments
show that our method is more superior compared with the state-of-the-art
methods.
- Abstract(参考訳): 深層学習に基づく画像復元と融合手法は顕著な成果を上げている。
しかし, 従来の修復法と融合法は, 動的劣化に起因するロバスト性問題にはほとんど注意を払わなかった。
本稿では,静的回復と融合,動的劣化という2つの問題を解くことができる,DDRF-Netと呼ばれる新しい動的画像復元と融合ニューラルネットワークを提案する。
既存手法の静的融合問題を解くため,動的復元と融合重みを学習するために動的畳み込みを導入した。
さらに,画像復元と核融合の堅牢性を向上させるため,動的劣化カーネルを提案する。
ネットワークフレームワークは,画像劣化と画像融合タスクを効果的に結合し,画像復元損失による画像融合タスクの詳細な情報を提供し,画像融合損失による画像復元タスクを最適化する。
したがって、画像融合におけるディープラーニングの崩壊ブロック、例えば静的融合重みや特別に設計されたネットワークアーキテクチャは大幅に軽減される。
実験の結果,本手法は最先端の手法よりも優れていることがわかった。
関連論文リスト
- Fusion from Decomposition: A Self-Supervised Approach for Image Fusion and Beyond [74.96466744512992]
画像融合の本質は、ソース画像からの相補的な情報を統合することである。
DeFusion++は、画像融合の品質を高め、下流の高レベル視覚タスクの有効性を高める、汎用的な融合表現を生成する。
論文 参考訳(メタデータ) (2024-10-16T06:28:49Z) - SPIRE: Semantic Prompt-Driven Image Restoration [66.26165625929747]
セマンティック・復元型画像復元フレームワークであるSPIREを開発した。
本手法は,復元強度の量的仕様を言語ベースで記述することで,より詳細な指導を支援する最初のフレームワークである。
本実験は, SPIREの修復性能が, 現状と比較して優れていることを示すものである。
論文 参考訳(メタデータ) (2023-12-18T17:02:30Z) - ReFusion: Learning Image Fusion from Reconstruction with Learnable Loss
via Meta-Learning [17.91346343984845]
メタラーニングに基づく統合画像融合フレームワークReFusionを導入する。
ReFusionはパラメータ化された損失関数を採用し、特定のシナリオとタスクに応じてトレーニングフレームワークによって動的に調整される。
赤外線可視、医療、マルチフォーカス、マルチ露光画像融合など、様々なタスクに適応することができる。
論文 参考訳(メタデータ) (2023-12-13T07:40:39Z) - All-in-one Multi-degradation Image Restoration Network via Hierarchical
Degradation Representation [47.00239809958627]
我々は新しいオールインワン・マルチデグレーション画像復元ネットワーク(AMIRNet)を提案する。
AMIRNetは、クラスタリングによって木構造を段階的に構築することで、未知の劣化画像の劣化表現を学習する。
この木構造表現は、様々な歪みの一貫性と不一致を明示的に反映しており、画像復元の具体的な手がかりとなっている。
論文 参考訳(メタデータ) (2023-08-06T04:51:41Z) - A Task-guided, Implicitly-searched and Meta-initialized Deep Model for
Image Fusion [69.10255211811007]
本稿では,課題の多い現実シナリオにおいて,画像融合問題に対処するためのタスク誘導,インプリシト検索,メタ一般化(TIM)深層モデルを提案する。
具体的には、画像融合の教師なし学習プロセスを導くために、下流タスクからの情報を組み込む制約付き戦略を提案する。
このフレームワーク内に暗黙の探索スキームを設計し、高速な融合モデルのためのコンパクトなアーキテクチャを自動で発見する。
論文 参考訳(メタデータ) (2023-05-25T08:54:08Z) - LRRNet: A Novel Representation Learning Guided Fusion Network for
Infrared and Visible Images [98.36300655482196]
我々は,融合タスクを数学的に定式化し,その最適解とそれを実装可能なネットワークアーキテクチャとの接続を確立する。
特に、融合タスクに学習可能な表現アプローチを採用し、融合ネットワークアーキテクチャの構築は学習可能なモデルを生成する最適化アルゴリズムによって導かれる。
この新しいネットワークアーキテクチャに基づいて、赤外線および可視光画像を融合するために、エンドツーエンドの軽量核融合ネットワークを構築する。
論文 参考訳(メタデータ) (2023-04-11T12:11:23Z) - CoCoNet: Coupled Contrastive Learning Network with Multi-level Feature
Ensemble for Multi-modality Image Fusion [72.8898811120795]
我々は、赤外線と可視画像の融合を実現するために、CoCoNetと呼ばれるコントラスト学習ネットワークを提案する。
本手法は,主観的評価と客観的評価の両面において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T12:02:07Z) - A Deep Decomposition Network for Image Processing: A Case Study for
Visible and Infrared Image Fusion [38.17268441062239]
本稿では畳み込みニューラルネットワークに基づく新しい画像分解法を提案する。
赤外線画像と可視光画像を入力し、それぞれ3つの高周波特徴画像と低周波特徴画像に分解する。
2つの特徴画像セットは、特定の融合戦略を用いて融合特徴画像を取得する。
論文 参考訳(メタデータ) (2021-02-21T06:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。