論文の概要: AE-Netv2: Optimization of Image Fusion Efficiency and Network
Architecture
- arxiv url: http://arxiv.org/abs/2010.01863v2
- Date: Tue, 6 Oct 2020 07:58:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 21:50:01.238389
- Title: AE-Netv2: Optimization of Image Fusion Efficiency and Network
Architecture
- Title(参考訳): AE-Netv2:画像融合効率とネットワークアーキテクチャの最適化
- Authors: Aiqing Fang, Xinbo Zhao, Jiaqi Yang, Beibei Qin, Yanning Zhang
- Abstract要約: AE-Netv2に埋もれたテキスト効率の自律的進化画像融合法を提案する。
本稿では,異なるネットワークアーキテクチャが画像融合品質と融合効率に与える影響について論じる。
画像融合の分野における人間の脳の継続的な学習特性のさらなる研究の基盤となる画像融合タスクの共通性と特徴について検討する。
- 参考スコア(独自算出の注目度): 34.57055312296812
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing image fusion methods pay few research attention to image fusion
efficiency and network architecture. However, the efficiency and accuracy of
image fusion has an important impact in practical applications. To solve this
problem, we propose an \textit{efficient autonomous evolution image fusion
method, dubed by AE-Netv2}. Different from other image fusion methods based on
deep learning, AE-Netv2 is inspired by human brain cognitive mechanism.
Firstly, we discuss the influence of different network architecture on image
fusion quality and fusion efficiency, which provides a reference for the design
of image fusion architecture. Secondly, we explore the influence of pooling
layer on image fusion task and propose an image fusion method with pooling
layer. Finally, we explore the commonness and characteristics of different
image fusion tasks, which provides a research basis for further research on the
continuous learning characteristics of human brain in the field of image
fusion. Comprehensive experiments demonstrate the superiority of AE-Netv2
compared with state-of-the-art methods in different fusion tasks at a real time
speed of 100+ FPS on GTX 2070. Among all tested methods based on deep learning,
AE-Netv2 has the faster speed, the smaller model size and the better
robustness.
- Abstract(参考訳): 既存の画像融合手法は、画像融合効率とネットワークアーキテクチャの研究にほとんど注意を払わない。
しかし, 画像融合の効率と精度は, 実用化に重要な影響を与えている。
この問題を解決するために,AE-Netv2} に埋もれた \textit{efficient autonomous evolution image fusion 法を提案する。
深層学習に基づく他の画像融合法とは異なり、AE-Netv2は人間の脳認知機構にインスパイアされている。
まず,異なるネットワークアーキテクチャが画像融合品質および融合効率に与える影響について検討し,画像融合アーキテクチャの設計へのリファレンスを提供する。
次に, プール層が画像融合作業に与える影響について検討し, プール層を用いた画像融合手法を提案する。
最後に、異なる画像融合タスクの共通点と特徴について検討し、画像融合の分野における人間の脳の継続的な学習特性について研究する基礎となる。
総合実験では、GTX 2070上の100以上のFPSのリアルタイム速度で異なる融合タスクにおける最先端の手法と比較して、AE-Netv2の優位性を示す。
ディープラーニングに基づくすべてのテスト方法の中で、AE-Netv2は高速で、モデルサイズが小さく、堅牢性が向上している。
関連論文リスト
- Fusion-Mamba for Cross-modality Object Detection [63.56296480951342]
異なるモダリティから情報を融合するクロスモダリティは、オブジェクト検出性能を効果的に向上させる。
We design a Fusion-Mamba block (FMB) to map cross-modal features into a hidden state space for interaction。
提案手法は,m3FD$が5.9%,FLIRデータセットが4.9%,m3FD$が5.9%である。
論文 参考訳(メタデータ) (2024-04-14T05:28:46Z) - From Text to Pixels: A Context-Aware Semantic Synergy Solution for
Infrared and Visible Image Fusion [66.33467192279514]
我々は、テキスト記述から高レベルなセマンティクスを活用し、赤外線と可視画像のセマンティクスを統合するテキスト誘導多モード画像融合法を提案する。
本手法は,視覚的に優れた融合結果を生成するだけでなく,既存の手法よりも高い検出mAPを達成し,最先端の結果を得る。
論文 参考訳(メタデータ) (2023-12-31T08:13:47Z) - A Task-guided, Implicitly-searched and Meta-initialized Deep Model for
Image Fusion [69.10255211811007]
本稿では,課題の多い現実シナリオにおいて,画像融合問題に対処するためのタスク誘導,インプリシト検索,メタ一般化(TIM)深層モデルを提案する。
具体的には、画像融合の教師なし学習プロセスを導くために、下流タスクからの情報を組み込む制約付き戦略を提案する。
このフレームワーク内に暗黙の探索スキームを設計し、高速な融合モデルのためのコンパクトなアーキテクチャを自動で発見する。
論文 参考訳(メタデータ) (2023-05-25T08:54:08Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - LRRNet: A Novel Representation Learning Guided Fusion Network for
Infrared and Visible Images [98.36300655482196]
我々は,融合タスクを数学的に定式化し,その最適解とそれを実装可能なネットワークアーキテクチャとの接続を確立する。
特に、融合タスクに学習可能な表現アプローチを採用し、融合ネットワークアーキテクチャの構築は学習可能なモデルを生成する最適化アルゴリズムによって導かれる。
この新しいネットワークアーキテクチャに基づいて、赤外線および可視光画像を融合するために、エンドツーエンドの軽量核融合ネットワークを構築する。
論文 参考訳(メタデータ) (2023-04-11T12:11:23Z) - Unsupervised Image Fusion Method based on Feature Mutual Mapping [16.64607158983448]
上記の問題に対処するために,教師なし適応画像融合法を提案する。
入力元画像間の画素の接続を計測するグローバルマップを構築した。
本手法は視覚的知覚と客観的評価の両方において優れた性能を実現する。
論文 参考訳(メタデータ) (2022-01-25T07:50:14Z) - FuseVis: Interpreting neural networks for image fusion using per-pixel
saliency visualization [10.156766309614113]
教師なし学習に基づく畳み込みニューラルネットワーク(CNN)は、様々な種類の画像融合タスクに利用されている。
画像融合タスクにおけるこれらのCNNの信頼性を解析することは、根拠が得られないので困難である。
本稿では,FuseVisという新たなリアルタイム可視化ツールを提案する。
論文 参考訳(メタデータ) (2020-12-06T10:03:02Z) - AE-Net: Autonomous Evolution Image Fusion Method Inspired by Human
Cognitive Mechanism [34.57055312296812]
AE-Netで表される自律的な進化能力を持つ頑健で汎用的な画像融合法を提案する。
人間の脳の認知過程をシミュレートする複数の画像融合法の協調最適化により、教師なし学習画像融合タスクを半教師付き画像融合タスクまたは教師付き画像融合タスクに変換することができる。
画像融合法は, 画像融合タスクと画像融合タスクを効果的に統合し, 異なるデータセット間のデータ分布の違いを効果的に克服することができる。
論文 参考訳(メタデータ) (2020-07-17T05:19:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。