論文の概要: Multi-Resolution SAR and Optical Remote Sensing Image Registration Methods: A Review, Datasets, and Future Perspectives
- arxiv url: http://arxiv.org/abs/2502.01002v1
- Date: Mon, 03 Feb 2025 02:51:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:59:32.214575
- Title: Multi-Resolution SAR and Optical Remote Sensing Image Registration Methods: A Review, Datasets, and Future Perspectives
- Title(参考訳): マルチリゾリューションSARと光リモートセンシング画像登録法:概観,データセット,今後の展望
- Authors: Wenfei Zhang, Ruipeng Zhao, Yongxiang Yao, Yi Wan, Peihao Wu, Jiayuan Li, Yansheng Li, Yongjun Zhang,
- Abstract要約: リモートセンシングデータ融合には合成開口レーダ(SAR)と光画像登録が不可欠である。
画像の解像度が向上するにつれて、微細なSARテクスチャがより重要になり、アライメントの問題と3次元空間の相違が生じる。
MultiResSARデータセットは10万組以上のマルチソース、マルチ解像度、マルチシーンSARおよび光学画像を含む。
- 参考スコア(独自算出の注目度): 13.749888089968373
- License:
- Abstract: Synthetic Aperture Radar (SAR) and optical image registration is essential for remote sensing data fusion, with applications in military reconnaissance, environmental monitoring, and disaster management. However, challenges arise from differences in imaging mechanisms, geometric distortions, and radiometric properties between SAR and optical images. As image resolution increases, fine SAR textures become more significant, leading to alignment issues and 3D spatial discrepancies. Two major gaps exist: the lack of a publicly available multi-resolution, multi-scene registration dataset and the absence of systematic analysis of current methods. To address this, the MultiResSAR dataset was created, containing over 10k pairs of multi-source, multi-resolution, and multi-scene SAR and optical images. Sixteen state-of-the-art algorithms were tested. Results show no algorithm achieves 100% success, and performance decreases as resolution increases, with most failing on sub-meter data. XoFTR performs best among deep learning methods (40.58%), while RIFT performs best among traditional methods (66.51%). Future research should focus on noise suppression, 3D geometric fusion, cross-view transformation modeling, and deep learning optimization for robust registration of high-resolution SAR and optical images. The dataset is available at https://github.com/betterlll/Multi-Resolution-SAR-dataset-.
- Abstract(参考訳): SAR(Synthetic Aperture Radar)と光画像登録は、軍事偵察、環境モニタリング、災害管理など、リモートセンシングデータ融合に不可欠である。
しかし、SARと光学画像の撮像機構、幾何学的歪み、放射能特性の違いにより課題が生じる。
画像の解像度が向上するにつれて、微細なSARテクスチャがより重要になり、アライメントの問題と3次元空間の相違が生じる。
2つの大きなギャップがある: 公開されているマルチレゾリューション、マルチシーン登録データセットの欠如と、現在の手法の体系的分析の欠如である。
これを解決するために、MultiResSARデータセットが作成され、マルチソース、マルチレゾリューション、マルチシーンSARおよび光学画像の10万組以上のペアが含まれている。
16の最先端のアルゴリズムがテストされた。
その結果、アルゴリズムが100%の成功を達成できず、解像度が向上するにつれて性能が低下し、ほとんどの場合、サブメーターデータでは失敗することがわかった。
XoFTRは40.58%、RIFTは66.51%である。
将来の研究は、高解像度SARと光学画像の堅牢な登録のためのノイズ抑圧、3次元幾何融合、クロスビュー変換モデリング、ディープラーニング最適化に焦点を当てるべきである。
データセットはhttps://github.com/betterlll/Multi-Resolution-SAR-dataset-で公開されている。
関連論文リスト
- Large-Scale Data-Free Knowledge Distillation for ImageNet via Multi-Resolution Data Generation [53.95204595640208]
Data-Free Knowledge Distillation (DFKD)は、教師モデルから生徒モデルへの知識伝達を可能にする高度な技術である。
従来のアプローチでは、実際の画像の情報を活用することなく、高解像度で合成画像を生成してきた。
MUSEは、クラスアクティベーションマップ(CAM)を使用して、低い解像度で画像を生成し、生成された画像が重要なクラス固有の特徴を保持することを保証する。
論文 参考訳(メタデータ) (2024-11-26T02:23:31Z) - Semantic Guided Large Scale Factor Remote Sensing Image Super-resolution with Generative Diffusion Prior [13.148815217684277]
大規模因子超解像(SR)アルゴリズムは、軌道から取得した低解像度(LR)衛星データの最大化に不可欠である。
既存の手法では、鮮明なテクスチャと正しい接地オブジェクトでSR画像を復元する際の課題に直面している。
本稿では,大規模リモートセンシング画像の超解像を実現するための新しいフレームワークであるセマンティックガイド拡散モデル(SGDM)を提案する。
論文 参考訳(メタデータ) (2024-05-11T16:06:16Z) - 3MOS: Multi-sources, Multi-resolutions, and Multi-scenes dataset for Optical-SAR image matching [6.13702551312774]
光SAR画像マッチングのための大規模マルチソース、マルチ解像度、マルチシーンデータセット(3MOS)を紹介する。
6つの商用衛星からのSARデータを含む155Kの光学SAR画像対で構成され、解像度は1.25mから12.5mである。
データは、都市、農村、平野、丘、山、水、砂漠、凍った土を含む8つのシーンに分類されている。
論文 参考訳(メタデータ) (2024-04-01T00:31:11Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Hierarchical Similarity Learning for Aliasing Suppression Image
Super-Resolution [64.15915577164894]
エイリアスの影響を抑制するために階層画像超解像ネットワーク(HSRNet)を提案する。
HSRNetは、他の作品よりも定量的かつ視覚的なパフォーマンスを向上し、エイリアスをより効果的に再送信する。
論文 参考訳(メタデータ) (2022-06-07T14:55:32Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - The QXS-SAROPT Dataset for Deep Learning in SAR-Optical Data Fusion [14.45289690639374]
QXS-SAROPTデータセットを公開し、SAR-オプティカルデータ融合におけるディープラーニング研究を促進します。
光学画像からのクロスモーダル情報によって強化されたSAR光画像マッチングとSAR船舶検出の2つの代表的な用途の例を示す。
論文 参考訳(メタデータ) (2021-03-15T10:22:46Z) - Deep Burst Super-Resolution [165.90445859851448]
バースト超解像タスクのための新しいアーキテクチャを提案する。
我々のネットワークは複数のノイズRAW画像を入力として取り出し、出力として分解された超解像RGB画像を生成する。
実世界のデータのトレーニングと評価を可能にするため,BurstSRデータセットも導入する。
論文 参考訳(メタデータ) (2021-01-26T18:57:21Z) - Boosting Image Super-Resolution Via Fusion of Complementary Information
Captured by Multi-Modal Sensors [21.264746234523678]
イメージスーパーレゾリューション(sr)は、低解像度光センサの画質を向上させる有望な技術である。
本稿では,安価なチャネル(可視・深度)からの補完情報を活用して,少ないパラメータを用いて高価なチャネル(熱)の画像品質を向上させる。
論文 参考訳(メタデータ) (2020-12-07T02:15:28Z) - Multi-image Super Resolution of Remotely Sensed Images using Residual
Feature Attention Deep Neural Networks [1.3764085113103222]
本研究は,マルチイメージ超解像課題に効果的に取り組む新しい残像注意モデル(RAMS)を提案する。
本研究では,3次元畳み込みによる視覚特徴の注意機構を導入し,意識的なデータ融合と情報抽出を実現する。
我々の表現学習ネットワークは、冗長な低周波信号を流すためにネストした残差接続を広範囲に利用している。
論文 参考訳(メタデータ) (2020-07-06T22:54:02Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。