論文の概要: High-Resolution Cloud Removal with Multi-Modal and Multi-Resolution Data
Fusion: A New Baseline and Benchmark
- arxiv url: http://arxiv.org/abs/2301.03432v1
- Date: Mon, 9 Jan 2023 15:31:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 17:17:10.256458
- Title: High-Resolution Cloud Removal with Multi-Modal and Multi-Resolution Data
Fusion: A New Baseline and Benchmark
- Title(参考訳): マルチモーダル・マルチレゾリューションデータ融合による高分解能クラウド除去:新しいベースラインとベンチマーク
- Authors: Fang Xu, Yilei Shi, Patrick Ebel, Wen Yang and Xiao Xiang Zhu
- Abstract要約: マルチモーダルおよびマルチレゾリューションデータ融合を用いた高解像度クラウド除去のためのベンチマークデータセットであるPlanet-CRを紹介する。
提案したAlign-CR法は視覚回復品質と意味回復品質の両方において最高の性能を示す。
- 参考スコア(独自算出の注目度): 20.286072299313286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce Planet-CR, a benchmark dataset for
high-resolution cloud removal with multi-modal and multi-resolution data
fusion. Planet-CR is the first public dataset for cloud removal to feature
globally sampled high resolution optical observations, in combination with
paired radar measurements as well as pixel-level land cover annotations. It
provides solid basis for exhaustive evaluation in terms of generating visually
pleasing textures and semantically meaningful structures. With this dataset, we
consider the problem of cloud removal in high resolution optical remote sensing
imagery by integrating multi-modal and multi-resolution information. Existing
multi-modal data fusion based methods, which assume the image pairs are aligned
pixel-to-pixel, are hence not appropriate for this problem. To this end, we
design a new baseline named Align-CR to perform the low-resolution SAR image
guided high-resolution optical image cloud removal. It implicitly aligns the
multi-modal and multi-resolution data during the reconstruction process to
promote the cloud removal performance. The experimental results demonstrate
that the proposed Align-CR method gives the best performance in both visual
recovery quality and semantic recovery quality. The project is available at
https://github.com/zhu-xlab/Planet-CR, and hope this will inspire future
research.
- Abstract(参考訳): 本稿では,マルチモーダル・マルチレゾリューションデータ融合を用いた高解像度クラウド除去のためのベンチマークデータセットであるPlanet-CRを紹介する。
Planet-CRは、地球規模の高解像度光学観測と、対のレーダー測定とピクセルレベルの土地被覆アノテーションを組み合わせた、クラウド除去のための最初の公開データセットである。
視覚的に心地よいテクスチャや意味のある構造を生成するという点で、徹底的な評価のための確固たる基盤を提供する。
本研究では,マルチモーダル情報とマルチレゾリューション情報を統合することにより,高解像度光リモートセンシング画像における雲除去の問題を考える。
したがって、既存のマルチモーダルデータ融合法は、画像対が画素間整列であると仮定するものであり、この問題には適していない。
そこで我々は,低分解能SAR画像に高分解能光雲除去を誘導するAlign-CRという新しいベースラインを設計した。
クラウド除去性能を促進するために、再構築プロセス中に暗黙的にマルチモーダルおよびマルチレゾリューションデータをアライメントする。
実験の結果,Align-CR法は視覚回復品質と意味回復品質の両面で最高の性能を示すことがわかった。
このプロジェクトはhttps://github.com/zhu-xlab/planet-crで入手できる。
関連論文リスト
- Diffusion Enhancement for Cloud Removal in Ultra-Resolution Remote
Sensing Imagery [48.14610248492785]
雲層は、光学リモートセンシング(RS)画像の品質と効果を著しく損なう。
既存のディープラーニング(DL)ベースのクラウド削除(CR)技術は、元の視覚的正当性と画像の詳細なセマンティック内容の正確な再構築に困難を伴う。
この課題に対処するために、データと方法論の面での強化を提案する。
論文 参考訳(メタデータ) (2024-01-25T13:14:17Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z) - Gated Fusion Network for Degraded Image Super Resolution [78.67168802945069]
本稿では,基本特徴と回復特徴を別々に抽出する二分岐畳み込みニューラルネットワークを提案する。
特徴抽出ステップを2つのタスク非依存ストリームに分解することで、デュアルブランチモデルがトレーニングプロセスを容易にすることができる。
論文 参考訳(メタデータ) (2020-03-02T13:28:32Z) - Multimodal Deep Unfolding for Guided Image Super-Resolution [23.48305854574444]
ディープラーニング手法は、低解像度の入力から高解像度の出力へのエンドツーエンドのマッピングを学習するために、トレーニングデータに依存する。
本稿では,スパース事前を組み込んだマルチモーダル深層学習設計を提案し,他の画像モダリティからの情報をネットワークアーキテクチャに効果的に統合する。
提案手法は,サイド情報を用いた畳み込みスパース符号化の反復的アルゴリズムに類似した,新しい展開演算子に依存している。
論文 参考訳(メタデータ) (2020-01-21T14:41:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。