論文の概要: SOMA: Feature Gradient Enhanced Affine-Flow Matching for SAR-Optical Registration
- arxiv url: http://arxiv.org/abs/2511.13168v1
- Date: Mon, 17 Nov 2025 09:14:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:25.094122
- Title: SOMA: Feature Gradient Enhanced Affine-Flow Matching for SAR-Optical Registration
- Title(参考訳): SOMA: SAR-Optical Registrationのための機能勾配強化アフィンフローマッチング
- Authors: Haodong Wang, Tao Zhuo, Xiuwei Zhang, Hanlin Yin, Wencong Wu, Yanning Zhang,
- Abstract要約: 本稿では,構造的勾配を深い特徴に統合し,ハイブリッドマッチング戦略によりアライメントを改良する密度の高い登録フレームワークを提案する。
実験の結果、SOMAは登録精度を大幅に改善し、CMR@1pxはSEN1-2データセットで12.29%、GFGE_SOデータセットで18.50%増加した。
- 参考スコア(独自算出の注目度): 38.49121829107508
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Achieving pixel-level registration between SAR and optical images remains a challenging task due to their fundamentally different imaging mechanisms and visual characteristics. Although deep learning has achieved great success in many cross-modal tasks, its performance on SAR-Optical registration tasks is still unsatisfactory. Gradient-based information has traditionally played a crucial role in handcrafted descriptors by highlighting structural differences. However, such gradient cues have not been effectively leveraged in deep learning frameworks for SAR-Optical image matching. To address this gap, we propose SOMA, a dense registration framework that integrates structural gradient priors into deep features and refines alignment through a hybrid matching strategy. Specifically, we introduce the Feature Gradient Enhancer (FGE), which embeds multi-scale, multi-directional gradient filters into the feature space using attention and reconstruction mechanisms to boost feature distinctiveness. Furthermore, we propose the Global-Local Affine-Flow Matcher (GLAM), which combines affine transformation and flow-based refinement within a coarse-to-fine architecture to ensure both structural consistency and local accuracy. Experimental results demonstrate that SOMA significantly improves registration precision, increasing the CMR@1px by 12.29% on the SEN1-2 dataset and 18.50% on the GFGE_SO dataset. In addition, SOMA exhibits strong robustness and generalizes well across diverse scenes and resolutions.
- Abstract(参考訳): SARと光学画像のピクセルレベルの登録は、基本的に異なる撮像機構と視覚特性のため、依然として困難な課題である。
ディープラーニングは多くのクロスモーダルタスクで大きな成功を収めてきたが、SAR-Optical登録タスクのパフォーマンスはまだ不十分である。
グラディエントベースの情報は伝統的に、構造的な違いを強調することで手作りの記述子において重要な役割を担ってきた。
しかし、これらの勾配はSAR-Optical画像マッチングのためのディープラーニングフレームワークでは有効に活用されていない。
このギャップに対処するために,構造的勾配を深い特徴に統合し,ハイブリッドマッチング戦略を通じてアライメントを洗練する,密度の高い登録フレームワークであるSOMAを提案する。
具体的には,マルチスケールで多方向の勾配フィルタを特徴空間に埋め込んだ特徴勾配エンハンサー(FGE, Feature Gradient Enhancer)を提案する。
さらに,アフィン変換とフローベース改良を組み合わせたGlobal-Local Affine-Flow Matcher (GLAM)を提案する。
実験の結果、SOMAは登録精度を大幅に改善し、CMR@1pxはSEN1-2データセットで12.29%、GFGE_SOデータセットで18.50%増加した。
さらに、ソマは強い堅牢性を示し、様々な場面や解像度にわたってうまく一般化している。
関連論文リスト
- Rethinking Efficient Hierarchical Mixing Architecture for Low-light RAW Image Enhancement [70.94252289772685]
高速低照度画像信号処理(ISP)のための階層混合アーキテクチャ(HiMA)を提案する。
HiMAはTransformerとMambaモジュールの相補的な長所を利用して、大規模かつ小規模な機能を処理する。
局所的な変動が強い不均一照明に対処するため,LoDA(Local Distribution Adjustment)を提案する。
さらに,第1段階からの復号化出力をフル活用するために,MPFモジュールを設計する。
論文 参考訳(メタデータ) (2025-10-17T10:09:38Z) - GCRPNet: Graph-Enhanced Contextual and Regional Perception Network for Salient Object Detection in Optical Remote Sensing Images [68.33481681452675]
本稿では,GCRPNet(Graph-enhanced contextual and Regional Recognition Network)を提案する。
これはMambaアーキテクチャの上に構築され、長距離依存関係を同時にキャプチャし、地域的特徴表現を強化する。
マルチスケールの畳み込みによって処理される特徴マップに対して適応的なパッチスキャンを行い、リッチなローカル領域情報をキャプチャする。
論文 参考訳(メタデータ) (2025-08-14T11:31:43Z) - Feature Alignment with Equivariant Convolutions for Burst Image Super-Resolution [52.55429225242423]
本稿では,同変畳み込みに基づくアライメントを特徴とするBurst Image Super-Resolution (BISR) のための新しいフレームワークを提案する。
これにより、アライメント変換は画像領域の明示的な監督を通じて学習でき、特徴領域に容易に適用できる。
BISRベンチマークの実験は、定量的メトリクスと視覚的品質の両方において、我々のアプローチの優れた性能を示している。
論文 参考訳(メタデータ) (2025-03-11T11:13:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。