論文の概要: Matching of SAR and optical images based on transformation to shared modality
- arxiv url: http://arxiv.org/abs/2602.12515v1
- Date: Fri, 13 Feb 2026 01:41:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.804351
- Title: Matching of SAR and optical images based on transformation to shared modality
- Title(参考訳): 共有モードへの変換に基づくSARと光学画像のマッチング
- Authors: Alexey Borisov, Evgeny Myasnikov, Vladislav Myasnikov,
- Abstract要約: 本稿では,光学画像とSAR画像のマッチング手法を提案する。
この共有モダリティに変換された画像にさらなるマッチングを行うため、通常のデジタル写真のマッチングにおける主要なソリューションの一つであるRoMa画像マッチングモデルを訓練する。
- 参考スコア(独自算出の注目度): 0.0254890465057467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Significant differences in optical images and Synthetic Aperture Radar (SAR) images are caused by fundamental differences in the physical principles underlying their acquisition by Earth remote sensing platforms. These differences make precise image matching (co-registration) of these two types of images difficult. In this paper, we propose a new approach to image matching of optical and SAR images, which is based on transforming the images to a new modality. The new image modality is common to both optical and SAR images and satisfies the following conditions. First, the transformed images must have an equal pre-defined number of channels. Second, the transformed and co-registered images must be as similar as possible. Third, the transformed images must be non-degenerate, meaning they must preserve the significant features of the original images. To further match images transformed to this shared modality, we train the RoMa image matching model, which is one of the leading solutions for matching of regular digital photographs. We evaluated the proposed approach on the publicly available MultiSenGE dataset containing both optical and SAR images. We demonstrated its superiority over alternative approaches based on image translation between original modalities and various feature matching algorithms. The proposed solution not only provides better quality of matching, but is also more versatile. It enables the use of ready-made RoMa and DeDoDe models, pre-trained for regular images, without retraining for a new modality, while maintaining high-quality matching of optical and SAR images.
- Abstract(参考訳): 光画像と合成開口レーダ(SAR)画像の顕著な違いは、地球リモートセンシングプラットフォームによる取得の基礎となる物理原理の根本的な違いによって引き起こされる。
これらの違いにより、これらの2種類の画像の正確なマッチング(共存)が困難になる。
本稿では,光画像とSAR画像のマッチング手法を提案する。
新しい画像モダリティは光学画像とSAR画像の両方に共通であり、以下の条件を満たす。
まず、変換された画像は、同じ数のチャンネルを持つ必要がある。
第二に、変換され、共同登録された画像は可能な限り類似している必要がある。
第三に、変換された画像は非退化でなければならない。
この共有モダリティに変換された画像にさらなるマッチングを行うため、通常のデジタル写真のマッチングにおける主要なソリューションの一つであるRoMa画像マッチングモデルを訓練する。
光画像とSAR画像の両方を含むMultiSenGEデータセットについて,提案手法の評価を行った。
元のモダリティと様々な特徴マッチングアルゴリズム間の画像変換に基づく代替手法よりも優位性を実証した。
提案したソリューションは、マッチングの質を向上するだけでなく、より汎用性も向上する。
これは、光学画像とSAR画像の高品質なマッチングを維持しながら、新しいモダリティを再トレーニングすることなく、通常の画像のために事前訓練された既製のRoMaとDeDoDeモデルの使用を可能にする。
関連論文リスト
- PromptMID: Modal Invariant Descriptors Based on Diffusion and Vision Foundation Models for Optical-SAR Image Matching [15.840638449527399]
本稿では,テキストプロンプトを用いたモダリティ不変記述子構築手法であるPromptMIDを提案する。
PromptMIDは、事前訓練された拡散モデルと視覚基礎モデルを活用することで、マルチスケールのモダリティ不変の特徴を抽出する。
4つの異なる領域の光学SAR画像データセットの実験により、PromptMIDは最先端のマッチング方法より優れていることが示された。
論文 参考訳(メタデータ) (2025-02-25T11:19:26Z) - Semantic Alignment and Reinforcement for Data-Free Quantization of Vision Transformers [58.80845404416028]
データフリー量子化(DFQ)は、実際のデータにアクセスせずにモデル量子化を可能にし、データのセキュリティとプライバシに関する懸念に対処する。
ビジョントランスフォーマー(ViTs)の普及に伴い、ViTsのDFQは大きな注目を集めている。
本稿では,新しいセマンティックアライメントと強化データ自由化手法であるSARDFQを提案する。
論文 参考訳(メタデータ) (2024-12-21T09:30:45Z) - Unlocking Pre-trained Image Backbones for Semantic Image Synthesis [29.688029979801577]
本稿では,現実的な画像を生成するセマンティック画像合成のための新しい種類のGAN識別器を提案する。
DP-SIMSをダブした本モデルでは,ADE-20K,COCO-Stuff,Cityscapesの入力ラベルマップと画像品質と一貫性の両面から,最新の結果が得られる。
論文 参考訳(メタデータ) (2023-12-20T09:39:19Z) - Masked and Adaptive Transformer for Exemplar Based Image Translation [16.93344592811513]
ドメイン間のセマンティックマッチングは難しい。
正確なクロスドメイン対応を学習するためのマスク付き適応変換器(MAT)を提案する。
品質識別型スタイル表現を得るための新しいコントラスト型スタイル学習法を考案する。
論文 参考訳(メタデータ) (2023-03-30T03:21:14Z) - Transformer-based SAR Image Despeckling [53.99620005035804]
本稿では,SAR画像復号化のためのトランスフォーマーネットワークを提案する。
提案する非特定ネットワークは、トランスフォーマーベースのエンコーダにより、異なる画像領域間のグローバルな依存関係を学習することができる。
実験により,提案手法は従来型および畳み込み型ニューラルネットワークに基づく解法よりも大幅に改善されていることが示された。
論文 参考訳(メタデータ) (2022-01-23T20:09:01Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Co-Attention for Conditioned Image Matching [91.43244337264454]
照明, 視点, コンテキスト, 素材に大きな変化がある場合, 野生のイメージペア間の対応性を決定するための新しい手法を提案する。
他のアプローチでは、イメージを個別に扱うことで、画像間の対応を見出すが、その代わりに、画像間の差異を暗黙的に考慮するよう、両画像に条件を付ける。
論文 参考訳(メタデータ) (2020-07-16T17:32:00Z) - CoMIR: Contrastive Multimodal Image Representation for Registration [4.543268895439618]
我々は,CoMIR(Contrastive Multimodal Image Representations)と呼ばれる,共有された高密度画像表現を学習するためのコントラスト符号化を提案する。
CoMIRは、十分に類似した画像構造が欠如しているため、既存の登録方法がしばしば失敗するマルチモーダル画像の登録を可能にする。
論文 参考訳(メタデータ) (2020-06-11T10:51:33Z) - DDet: Dual-path Dynamic Enhancement Network for Real-World Image
Super-Resolution [69.2432352477966]
実画像超解像(Real-SR)は、実世界の高分解能画像(HR)と低分解能画像(LR)の関係に焦点を当てている。
本稿では,Real-SRのためのデュアルパス動的拡張ネットワーク(DDet)を提案する。
特徴表現のための大規模な畳み込みブロックを積み重ねる従来の手法とは異なり、非一貫性のある画像対を研究するためのコンテンツ認識フレームワークを導入する。
論文 参考訳(メタデータ) (2020-02-25T18:24:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。