論文の概要: Image Fusion in Remote Sensing: An Overview and Meta Analysis
- arxiv url: http://arxiv.org/abs/2401.08837v1
- Date: Tue, 16 Jan 2024 21:21:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 17:50:36.222528
- Title: Image Fusion in Remote Sensing: An Overview and Meta Analysis
- Title(参考訳): リモートセンシングにおける画像融合 : 概観とメタ分析
- Authors: Hessah Albanwan, Rongjun Qin, Yang Tang
- Abstract要約: リモートセンシング(RS)における画像融合は、様々な解像度、ソース、モダリティの生画像を正確で完全でコヒーレントな画像に変換する能力により、一貫した要求であった。
しかし、画像融合ソリューションは様々なリモートセンシング問題と非常に異なるため、既存のレビューではトピックアプリケーションとして狭義に定義されることが多い。
本論文は,1)多対一画像融合,2)多対多画像融合という単純な分類法を用いて,関連研究を包括的に調査する。
- 参考スコア(独自算出の注目度): 12.500746892824338
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image fusion in Remote Sensing (RS) has been a consistent demand due to its
ability to turn raw images of different resolutions, sources, and modalities
into accurate, complete, and spatio-temporally coherent images. It greatly
facilitates downstream applications such as pan-sharpening, change detection,
land-cover classification, etc. Yet, image fusion solutions are highly
disparate to various remote sensing problems and thus are often narrowly
defined in existing reviews as topical applications, such as pan-sharpening,
and spatial-temporal image fusion. Considering that image fusion can be
theoretically applied to any gridded data through pixel-level operations, in
this paper, we expanded its scope by comprehensively surveying relevant works
with a simple taxonomy: 1) many-to-one image fusion; 2) many-to-many image
fusion. This simple taxonomy defines image fusion as a mapping problem that
turns either a single or a set of images into another single or set of images,
depending on the desired coherence, e.g., spectral, spatial/resolution
coherence, etc. We show that this simple taxonomy, despite the significant
modality difference it covers, can be presented by a conceptually easy
framework. In addition, we provide a meta-analysis to review the major papers
studying the various types of image fusion and their applications over the
years (from the 1980s to date), covering 5,926 peer-reviewed papers. Finally,
we discuss the main benefits and emerging challenges to provide open research
directions and potential future works.
- Abstract(参考訳): リモートセンシング(RS)における画像融合は、異なる解像度、ソース、モダリティの生画像を正確、完全、時空間的に一貫性のある画像に変換する能力により、一貫した要求であった。
パンシャープ化、変更検出、土地被覆分類などの下流アプリケーションを大幅に促進します。
しかし、画像融合ソリューションは様々なリモートセンシング問題と非常に異なるため、既存のレビューではパンシャーピングや時空間画像融合といったトピック的応用として狭義に定義されていることが多い。
画像融合はピクセルレベルの操作によって任意のグリッド化されたデータに理論的に適用可能であることを考慮し、本論文では、簡単な分類法で関連する作品を包括的に調査することにより、その範囲を広げた。
1) 多対一画像融合
2)多対多画像融合
この単純な分類法は、画像融合を、望まれるコヒーレンス(スペクトル、空間/解像度コヒーレンスなど)に応じて、単一の画像または一組の画像を別の画像または一組のイメージに変換する写像問題として定義する。
この単純な分類法は、それがカバーする大きなモダリティの違いにもかかわらず、概念的に簡単な枠組みで提示できることが示される。
さらに,1980年代から現在に至るまでの様々な種類の画像融合とその応用に関する主要な論文(5,926件の査読論文)について,メタ分析を行った。
最後に,オープンな研究の方向性と今後の課題について論じる。
関連論文リスト
- Fusion from Decomposition: A Self-Supervised Approach for Image Fusion and Beyond [74.96466744512992]
画像融合の本質は、ソース画像からの相補的な情報を統合することである。
DeFusion++は、画像融合の品質を高め、下流の高レベル視覚タスクの有効性を高める、汎用的な融合表現を生成する。
論文 参考訳(メタデータ) (2024-10-16T06:28:49Z) - From Text to Pixels: A Context-Aware Semantic Synergy Solution for
Infrared and Visible Image Fusion [66.33467192279514]
我々は、テキスト記述から高レベルなセマンティクスを活用し、赤外線と可視画像のセマンティクスを統合するテキスト誘導多モード画像融合法を提案する。
本手法は,視覚的に優れた融合結果を生成するだけでなく,既存の手法よりも高い検出mAPを達成し,最先端の結果を得る。
論文 参考訳(メタデータ) (2023-12-31T08:13:47Z) - A Task-guided, Implicitly-searched and Meta-initialized Deep Model for
Image Fusion [69.10255211811007]
本稿では,課題の多い現実シナリオにおいて,画像融合問題に対処するためのタスク誘導,インプリシト検索,メタ一般化(TIM)深層モデルを提案する。
具体的には、画像融合の教師なし学習プロセスを導くために、下流タスクからの情報を組み込む制約付き戦略を提案する。
このフレームワーク内に暗黙の探索スキームを設計し、高速な融合モデルのためのコンパクトなアーキテクチャを自動で発見する。
論文 参考訳(メタデータ) (2023-05-25T08:54:08Z) - Equivariant Multi-Modality Image Fusion [124.11300001864579]
エンドツーエンドの自己教師型学習のための同変多モードImAge融合パラダイムを提案する。
我々のアプローチは、自然画像応答が特定の変換に等しくなるという以前の知識に根ざしている。
実験により、EMMAは赤外線可視画像と医用画像に高品質な融合結果をもたらすことが確認された。
論文 参考訳(メタデータ) (2023-05-19T05:50:24Z) - CoCoNet: Coupled Contrastive Learning Network with Multi-level Feature
Ensemble for Multi-modality Image Fusion [72.8898811120795]
我々は、赤外線と可視画像の融合を実現するために、CoCoNetと呼ばれるコントラスト学習ネットワークを提案する。
本手法は,主観的評価と客観的評価の両面において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T12:02:07Z) - Unsupervised Image Fusion Method based on Feature Mutual Mapping [16.64607158983448]
上記の問題に対処するために,教師なし適応画像融合法を提案する。
入力元画像間の画素の接続を計測するグローバルマップを構築した。
本手法は視覚的知覚と客観的評価の両方において優れた性能を実現する。
論文 参考訳(メタデータ) (2022-01-25T07:50:14Z) - Cross Attention-guided Dense Network for Images Fusion [6.722525091148737]
本稿では,新しいクロスアテンション誘導画像融合ネットワークを提案する。
マルチモーダル画像融合、マルチ露光画像融合、マルチフォーカス画像融合のための統一的で教師なしのフレームワークである。
以上の結果から,提案モデルが定量的かつ質的に,最先端のモデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2021-09-23T14:22:47Z) - Bridging Composite and Real: Towards End-to-end Deep Image Matting [88.79857806542006]
画像マッチングにおける意味論と細部の役割について検討する。
本稿では,共有エンコーダと2つの分離デコーダを用いた新しいGlance and Focus Matting Network(GFM)を提案する。
総合的な実証研究により、GFMは最先端の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2020-10-30T10:57:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。