論文の概要: SAR2Struct: Extracting 3D Semantic Structural Representation of Aircraft Targets from Single-View SAR Image
- arxiv url: http://arxiv.org/abs/2506.06757v1
- Date: Sat, 07 Jun 2025 10:57:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.464745
- Title: SAR2Struct: Extracting 3D Semantic Structural Representation of Aircraft Targets from Single-View SAR Image
- Title(参考訳): SAR2構造:単視点SAR画像から航空機目標の3次元意味的構造表現を抽出する
- Authors: Ziyu Yue, Ruixi You, Feng Xu,
- Abstract要約: 本稿では,SARターゲット構造回復という新しい課題を提案する。
ターゲットのコンポーネントと、そのコンポーネント間の構造的関係を、単一ビューのSAR画像から推測することを目的としている。
実験により各ステップの有効性を検証し,航空機目標の3次元的構造表現をSAR画像から直接抽出できることを初めて実証した。
- 参考スコア(独自算出の注目度): 5.476386749283056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To translate synthetic aperture radar (SAR) image into interpretable forms for human understanding is the ultimate goal of SAR advanced information retrieval. Existing methods mainly focus on 3D surface reconstruction or local geometric feature extraction of targets, neglecting the role of structural modeling in capturing semantic information. This paper proposes a novel task: SAR target structure recovery, which aims to infer the components of a target and the structural relationships between its components, specifically symmetry and adjacency, from a single-view SAR image. Through learning the structural consistency and geometric diversity across the same type of targets as observed in different SAR images, it aims to derive the semantic representation of target directly from its 2D SAR image. To solve this challenging task, a two-step algorithmic framework based on structural descriptors is developed. Specifically, in the training phase, it first detects 2D keypoints from real SAR images, and then learns the mapping from these keypoints to 3D hierarchical structures using simulated data. During the testing phase, these two steps are integrated to infer the 3D structure from real SAR images. Experimental results validated the effectiveness of each step and demonstrated, for the first time, that 3D semantic structural representation of aircraft targets can be directly derived from a single-view SAR image.
- Abstract(参考訳): 合成開口レーダ(SAR)画像を人間の理解のための解釈可能な形式に変換することは、SAR先進情報検索の究極の目標である。
既存の手法は主に3次元表面の再構成やターゲットの局所的な幾何学的特徴抽出に重点を置いており、意味情報の収集において構造モデリングが果たす役割を無視している。
本稿では,SAR画像から対象の構成要素と,その構成要素,特に対称性と隣接性との間の構造的関係を推定することを目的とした,新たな課題を提案する。
異なるSAR画像で見られるように、同じ種類のターゲットに対して構造的一貫性と幾何学的多様性を学習することにより、2D SAR画像から直接ターゲットの意味表現を導出することを目指している。
この課題を解決するために,構造記述子に基づく2段階のアルゴリズムフレームワークを開発した。
具体的には、トレーニング段階では、まず実際のSAR画像から2Dキーポイントを検出し、次にシミュレーションデータを用いてこれらのキーポイントから3D階層構造へのマッピングを学習する。
テストフェーズでは、これらの2つのステップを統合して、実際のSAR画像から3D構造を推測する。
実験により各ステップの有効性を検証し,航空機目標の3次元的構造表現をSAR画像から直接抽出できることを初めて実証した。
関連論文リスト
- SAB3R: Semantic-Augmented Backbone in 3D Reconstruction [19.236494823612507]
オープン語彙セグメンテーションと3次元再構成の目的を統一する新しいタスクであるMap and Locateを導入する。
具体的には、MapとLocateは、未提示のビデオからポイントクラウドを生成し、オープン語彙クエリに基づいてオブジェクトインスタンスをセグメント化する。
このタスクは、現実世界のAIアプリケーションへの重要なステップとして機能し、再構築、認識、再編成を橋渡しする実践的なタスクを導入します。
論文 参考訳(メタデータ) (2025-06-02T18:00:04Z) - Structure-Aware Correspondence Learning for Relative Pose Estimation [65.44234975976451]
相対的なポーズ推定は、オブジェクトに依存しないポーズ推定を達成するための有望な方法を提供する。
既存の3D対応方式は、可視領域における小さな重複と、可視領域に対する信頼できない特徴推定に悩まされている。
本稿では,2つの鍵モジュールからなる相対詩推定のための構造認識対応学習手法を提案する。
論文 参考訳(メタデータ) (2025-03-24T13:43:44Z) - Large Spatial Model: End-to-end Unposed Images to Semantic 3D [79.94479633598102]
大空間モデル(LSM)は、RGB画像を直接意味的放射場に処理する。
LSMは、単一のフィードフォワード操作における幾何学、外観、意味を同時に推定する。
新しい視点で言語と対話することで、多目的ラベルマップを生成することができる。
論文 参考訳(メタデータ) (2024-10-24T17:54:42Z) - CMAR-Net: Accurate Cross-Modal 3D SAR Reconstruction of Vehicle Targets with Sparse-Aspect Multi-Baseline Data [6.046251485192556]
マルチベースライン合成開口レーダ(SAR)3Dトモグラフィは重要なリモートセンシング技術である。
ディープラーニング(DL)は、強力なデータ駆動型表現機能と効率的な推論特性を通じて、この分野に革命をもたらす。
異種情報を融合させることにより3次元SAR画像の高精細化を実現する3D-SAR再構成ネットワーク(CMAR-Net)を提案する。
論文 参考訳(メタデータ) (2024-06-06T15:18:59Z) - Differentiable SAR Renderer and SAR Target Reconstruction [7.840247953745616]
SARイメージング機構のマッピングと投影を再構成する微分可能SAR(DSR)を開発した。
SAR画像からの3次元逆ターゲット再構成アルゴリズムを考案した。
論文 参考訳(メタデータ) (2022-05-14T17:24:32Z) - S2R-DepthNet: Learning a Generalizable Depth-specific Structural
Representation [63.58891781246175]
人間はリアルなイメージではなくスケッチからシーンの3次元幾何学を推測することができ、空間構造がシーンの深さを理解する上で基本的な役割を果たすことを示す。
我々は,深度推定に不可欠な特徴を捉え,無関係なスタイル情報を無視する,深度特異的な構造表現の学習を初めて行う。
当社のS2R-DepthNetは、合成データでのみ訓練されているにもかかわらず、目に見えない実際のデータに直接一般化できます。
論文 参考訳(メタデータ) (2021-04-02T03:55:41Z) - PeaceGAN: A GAN-based Multi-Task Learning Method for SAR Target Image
Generation with a Pose Estimator and an Auxiliary Classifier [50.17500790309477]
SARターゲット画像生成のための新しいGANベースのマルチタスク学習(MTL)手法であるPeaceGANを提案する。
PeaceGANはポーズ角とターゲットクラス情報の両方を使用し、目的のポーズ角で所望のターゲットクラスのSARターゲット画像を作成することができる。
論文 参考訳(メタデータ) (2021-03-29T10:03:09Z) - Enabling Visual Action Planning for Object Manipulation through Latent
Space Roadmap [72.01609575400498]
高次元状態空間を有する複雑な操作タスクの視覚的行動計画のための枠組みを提案する。
低次元潜時空間におけるシステムダイナミクスを世界規模で捉えたグラフベースの構造であるタスク計画のためのLatent Space Roadmap(LSR)を提案する。
実ロボットで実行された2つの模擬ボックス積み重ねタスクと折り畳みタスクについて,本フレームワークの徹底的な検討を行う。
論文 参考訳(メタデータ) (2021-03-03T17:48:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。