論文の概要: SDF-Net: Structure-Aware Disentangled Feature Learning for Opticall-SAR Ship Re-identification
- arxiv url: http://arxiv.org/abs/2603.12588v1
- Date: Fri, 13 Mar 2026 02:41:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.857789
- Title: SDF-Net: Structure-Aware Disentangled Feature Learning for Opticall-SAR Ship Re-identification
- Title(参考訳): SDF-Net:光SAR船の再識別のための構造認識型不整形特徴学習
- Authors: Furui Chen, Han Wang, Yuhan Sun, Jianing You, Yixuan Lv, Zhuang Zhou, Hong Tan, Shengyang Li,
- Abstract要約: 光学および合成開口レーダ(SAR)画像間のクロスモーダル船再識別(ReID)は基本的に課題である。
本稿では,光学式SAR船ReIDに幾何整合性を体系的に組み込んだ構造対応不整合特徴学習ネットワークであるSDF-Netを提案する。
HOSS-ReIDデータセットの実験は、SDF-Netが既存の最先端メソッドを一貫して上回っていることを示している。
- 参考スコア(独自算出の注目度): 10.512241383910721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-modal ship re-identification (ReID) between optical and synthetic aperture radar (SAR) imagery is fundamentally challenged by the severe radiometric discrepancy between passive optical imaging and coherent active radar sensing. While existing approaches primarily rely on statistical distribution alignment or semantic matching, they often overlook a critical physical prior: ships are rigid objects whose geometric structures remain stable across sensing modalities, whereas texture appearance is highly modality-dependent. In this work, we propose SDF-Net, a Structure-Aware Disentangled Feature Learning Network that systematically incorporates geometric consistency into optical--SAR ship ReID. Built upon a ViT backbone, SDF-Net introduces a structure consistency constraint that extracts scale-invariant gradient energy statistics from intermediate layers to robustly anchor representations against radiometric variations. At the terminal stage, SDF-Net disentangles the learned representations into modality-invariant identity features and modality-specific characteristics. These decoupled cues are then integrated through a parameter-free additive residual fusion, effectively enhancing discriminative power. Extensive experiments on the HOSS-ReID dataset demonstrate that SDF-Net consistently outperforms existing state-of-the-art methods. The code and trained models are publicly available at https://github.com/cfrfree/SDF-Net.
- Abstract(参考訳): 光開口レーダと合成開口レーダ(SAR)画像の相互識別(ReID)は、受動光学画像とコヒーレント能動レーダの厳密な距離差によって根本的に困難である。
既存のアプローチは主に統計分布のアライメントやセマンティックマッチングに頼っているが、それらはしばしば重要な物理的先行を見落としている。
本研究では,光学式SAR船ReIDに幾何学的整合性を体系的に組み込んだ構造対応分散特徴学習ネットワークであるSDF-Netを提案する。
ViTのバックボーン上に構築されたSDF-Netは、中間層からスケール不変勾配エネルギー統計を抽出し、ラジオメトリック変動に対する堅牢な表現を固定する構造整合性制約を導入する。
終末段階では、SDF-Netは学習した表現をモダリティ不変のアイデンティティ特徴とモダリティ固有の特徴に分解する。
これらの分離されたキューは、パラメータフリーの付加的残留核融合によって統合され、識別力が効果的に増強される。
HOSS-ReIDデータセットに関する大規模な実験は、SDF-Netが既存の最先端手法を一貫して上回っていることを示している。
コードとトレーニングされたモデルはhttps://github.com/cfrfree/SDF-Net.comで公開されている。
関連論文リスト
- GDROS: A Geometry-Guided Dense Registration Framework for Optical-SAR Images under Large Geometric Transformations [24.22541638346487]
我々はGDROSを提案する。GDROSはグローバルなクロスモーダル画像の相互作用を利用したジオメトリ誘導型密度登録フレームワークである。
まず、CNN-Transformerハイブリッド特徴抽出モジュールを用いて、光学画像とSAR画像からクロスモーダルな深度特徴を抽出する。
次に、予測された高密度光流場を幾何学的に制約する最小二乗回帰(LSR)モジュールを実装した。
論文 参考訳(メタデータ) (2025-11-01T15:40:34Z) - Domain Adaptive SAR Wake Detection: Leveraging Similarity Filtering and Memory Guidance [5.026771815351906]
そこで本稿では,非教師付きドメイン適応型船舶起動検出のためのSimisity-Guided and Memory-Guided Domain Adap-tation (Termed SimMemDA) フレームワークを提案する。
まず、WakeGANを用いて光学画像のスタイル転送を行い、SARスタイルに近い擬似画像を生成する。
次に、インスタンスレベルの特徴類似度フィルタリング機構を設計し、ソースサンプルをターゲットライクなディストリビューションで識別し、優先順位付けする。
論文 参考訳(メタデータ) (2025-09-14T08:35:39Z) - Rotation Equivariant Arbitrary-scale Image Super-Resolution [62.41329042683779]
任意のスケールの超解像(ASISR)は、低解像度の入力画像から任意のスケールの高分解能回復を実現することを目的としている。
本研究では, 回転同変ASISR法の構築に尽力する。
論文 参考訳(メタデータ) (2025-08-07T08:51:03Z) - A Deep Unfolding Framework for Diffractive Snapshot Spectral Imaging [23.83874042309026]
本稿では,DDU (diffractive Deep Unfolding) と呼ばれる,拡散システムのための効率的な深部展開フレームワークを提案する。
本研究では,DSSIにおけるデータ忠実度項の解析解を導出し,反復的再構成プロセスにおける効率と有効性の両方を保証した。
我々のフレームワークは、既存の最先端(SOTA)モデルと強い互換性を示す。
論文 参考訳(メタデータ) (2025-07-07T02:49:49Z) - SDS-Net: Shallow-Deep Synergism-detection Network for infrared small target detection [0.18641315013048293]
現在のCNNに基づく赤外小目標検出法は,浅部特徴と深部特徴の均一性を見落としている。
依存関係の関係と融合機構は、マルチレベル機能の相補性を十分に活用できない。
本稿では,マルチレベル特徴表現を効率的にモデル化する浅層深度相乗効果検出ネットワーク(SDS-Net)を提案する。
論文 参考訳(メタデータ) (2025-06-06T12:44:41Z) - A Lightweight Deep Exclusion Unfolding Network for Single Image Reflection Removal [68.0573194557999]
シングルイメージリフレクション除去(SIRR)は、標準的なブラインドソース分離問題である。
本稿ではSIRRのための新しいDeep Exclusion Unfolding Network(DExNet)を提案する。
DExNetは、単純な反復スパースと補助的特徴更新(i-SAFU)アルゴリズムの展開とパラメータ化によって構築される。
論文 参考訳(メタデータ) (2025-03-03T07:54:27Z) - Low-Light Video Enhancement via Spatial-Temporal Consistent Decomposition [52.89441679581216]
低照度ビデオエンハンスメント(LLVE)は、激しい視認性とノイズに悩まされる動的または静的なシーンの復元を目指している。
本稿では、ビューに依存しない、ビューに依存しないコンポーネントを組み込んだ革新的なビデオ分解戦略を提案する。
我々のフレームワークは、既存のメソッドを一貫して上回り、新しいSOTAパフォーマンスを確立します。
論文 参考訳(メタデータ) (2024-05-24T15:56:40Z) - Exploring Invariant Representation for Visible-Infrared Person
Re-Identification [77.06940947765406]
異なるスペクトルを横断する歩行者にアイデンティティを関連付けることを目的とした、クロススペクトルの人物再識別は、モダリティの相違の主な課題に直面している。
本稿では、ロバスト機能マイニングネットワーク(RFM)と呼ばれるエンドツーエンドのハイブリッド学習フレームワークにおいて、画像レベルと特徴レベルの両方の問題に対処する。
RegDBとSYSU-MM01という2つの標準的なクロススペクトル人物識別データセットの実験結果により,最先端の性能が示された。
論文 参考訳(メタデータ) (2023-02-02T05:24:50Z) - RRNet: Relational Reasoning Network with Parallel Multi-scale Attention
for Salient Object Detection in Optical Remote Sensing Images [82.1679766706423]
光リモートセンシング画像(RSI)のためのSODは、光学RSIから視覚的に特徴的な物体や領域を探索・抽出することを目的としている。
光学RSIにおけるSODに並列なマルチスケールアテンションを持つリレーショナル推論ネットワークを提案する。
提案するRRNetは,既存の最先端SODコンペティタよりも質的,定量的に優れている。
論文 参考訳(メタデータ) (2021-10-27T07:18:32Z) - A Parallel Down-Up Fusion Network for Salient Object Detection in
Optical Remote Sensing Images [82.87122287748791]
光リモートセンシング画像(RSI)における有意な物体検出のための新しい並列ダウンアップフュージョンネットワーク(PDF-Net)を提案する。
In-pathの低レベル・高レベルな特徴とクロスパスの多解像度な特徴をフル活用して、多様なスケールのサルエントオブジェクトを識別し、散らかった背景を抑える。
ORSSDデータセットの実験により、提案したネットワークは定性的かつ定量的に最先端のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-10-02T05:27:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。