論文の概要: CMAR-Net: Accurate Cross-Modal 3D SAR Reconstruction of Vehicle Targets with Sparse Multi-Baseline Data
- arxiv url: http://arxiv.org/abs/2406.04158v3
- Date: Mon, 13 Jan 2025 17:44:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:22:40.317488
- Title: CMAR-Net: Accurate Cross-Modal 3D SAR Reconstruction of Vehicle Targets with Sparse Multi-Baseline Data
- Title(参考訳): CMAR-Net:Sparse Multi-Baseline Dataを用いた車両目標の高精度3次元SAR再構成
- Authors: Da Li, Guoqiang Zhao, Houjun Sun, Jiacheng Bao,
- Abstract要約: マルチベースライン合成開口レーダ(SAR)3次元トモグラフィは重要なリモートセンシング技術である。
限られた開口部のデータに依存したスパース3D SARの最近の進歩は、費用対効果の代替手段として注目されている。
異種情報を統合することで3次元SAR画像の高精細化を実現する3D-SAR再構成ネットワーク(CMAR-Net)を提案する。
- 参考スコア(独自算出の注目度): 5.6680936716261705
- License:
- Abstract: Multi-baseline Synthetic Aperture Radar (SAR) three-dimensional (3D) tomography is a crucial remote sensing technique that provides 3D resolution unavailable in conventional SAR imaging. However, achieving high-quality imaging typically requires multi-angle or full-aperture data, resulting in significant imaging costs. Recent advancements in sparse 3D SAR, which rely on data from limited apertures, have gained attention as a cost-effective alternative. Notably, deep learning techniques have markedly enhanced the imaging quality of sparse 3D SAR. Despite these advancements, existing methods primarily depend on high-resolution radar images for supervising the training of deep neural networks (DNNs). This exclusive dependence on single-modal data prevents the introduction of complementary information from other data sources, limiting further improvements in imaging performance. In this paper, we introduce a Cross-Modal 3D-SAR Reconstruction Network (CMAR-Net) to enhance 3D SAR imaging by integrating heterogeneous information. Leveraging cross-modal supervision from 2D optical images and error transfer guaranteed by differentiable rendering, CMAR-Net achieves efficient training and reconstructs highly sparse multi-baseline SAR data into visually structured and accurate 3D images, particularly for vehicle targets. Extensive experiments on simulated and real-world datasets demonstrate that CMAR-Net significantly outperforms SOTA sparse reconstruction algorithms based on compressed sensing (CS) and deep learning (DL). Furthermore, our method eliminates the need for time-consuming full-aperture data preprocessing and relies solely on computer-rendered optical images, significantly reducing dataset construction costs. This work highlights the potential of deep learning for multi-baseline SAR 3D imaging and introduces a novel framework for radar imaging research through cross-modal learning.
- Abstract(参考訳): SAR(Multi-baseline Synthetic Aperture Radar)3次元トモグラフィは,従来のSAR画像では利用できない3次元分解能を実現する重要なリモートセンシング技術である。
しかし、高画質の撮像を実現するには、通常マルチアングルまたはフルアパーチャのデータが必要であるため、画像のコストは大幅に高くなる。
限られた開口部のデータに依存したスパース3D SARの最近の進歩は、費用対効果の代替手段として注目されている。
特に、深層学習技術はスパース3D SARの撮像品質を著しく向上させた。
これらの進歩にもかかわらず、既存の手法は主にディープニューラルネットワーク(DNN)のトレーニングを監督する高解像度レーダー画像に依存している。
この単一モードデータへの排他的依存は、他のデータソースからの補完情報の導入を防止し、画像性能のさらなる改善を制限している。
本稿では,異種情報の統合による3次元SAR画像の高精細化を実現するために,Cross-Modal 3D-SARコンストラクションネットワーク(CMAR-Net)を提案する。
CMAR-Netは2次元光学画像と異なるレンダリングによって保証されるエラー転送から、効率的なトレーニングを行い、高度にスパースなマルチベースラインSARデータを視覚的に構造化された正確な3D画像に再構成する。
シミュレーションおよび実世界のデータセットに対する大規模な実験により、CMAR-Netは圧縮センシング(CS)と深層学習(DL)に基づいてSOTAスパース再構成アルゴリズムを著しく上回っていることが示された。
さらに,本手法では,フルアパーチャデータ前処理の必要性を排除し,コンピュータレンダリング光画像のみに依存して,データセット構築コストを大幅に削減する。
本研究は,マルチベースラインSAR 3Dイメージングにおけるディープラーニングの可能性を強調し,クロスモーダル学習によるレーダイメージング研究のための新しいフレームワークを導入する。
関連論文リスト
- A Deep Learning Approach for SAR Tomographic Imaging of Forested Areas [10.477070348391079]
我々は,1つのフィードフォワードパスでトモグラフィインバージョンを実行するために,軽量ニューラルネットワークをトレーニング可能であることを示す。
我々は、シミュレーションデータを用いてエンコーダ・デコーダネットワークを訓練し、実LバンドとPバンドのデータに基づいてその手法を検証する。
論文 参考訳(メタデータ) (2023-01-20T14:34:03Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - DH-GAN: A Physics-driven Untrained Generative Adversarial Network for 3D
Microscopic Imaging using Digital Holography [3.4635026053111484]
デジタルホログラフィー(Digital holography)は、平面波面を持つレーザービームを物体に放出し、ホログラムと呼ばれる回折波形の強度を測定する3Dイメージング技術である。
近年,より正確なホログラフィック処理に深層学習(DL)法が用いられている。
本稿では, 識別ネットワークを用いて, 復元品質のセマンティック尺度を実現する, 生成的敵ネットワークに基づく新しいDLアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:13:45Z) - Aerial Images Meet Crowdsourced Trajectories: A New Approach to Robust
Road Extraction [110.61383502442598]
我々は、Cross-Modal Message Propagation Network (CMMPNet)と呼ばれる新しいニューラルネットワークフレームワークを紹介する。
CMMPNetは、モダリティ固有の表現学習のための2つのディープオートエンコーダと、クロスモーダル表現洗練のためのテーラー設計のデュアルエンハンスメントモジュールで構成されている。
実世界の3つのベンチマーク実験により, CMMPNetによる堅牢な道路抽出の有効性が示された。
論文 参考訳(メタデータ) (2021-11-30T04:30:10Z) - Homography augumented momentum constrastive learning for SAR image
retrieval [3.9743795764085545]
本稿では, ホログラフィ変換を用いた画像検索手法を提案する。
また,ラベル付け手順を必要としないコントラスト学習によって誘導されるDNNのトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-21T17:27:07Z) - Stereo Matching by Self-supervision of Multiscopic Vision [65.38359887232025]
カメラ位置の整列で撮影した複数の画像を利用したステレオマッチングのための新しい自己監視フレームワークを提案する。
ネットワークを最適化するために、クロスフォトメトリックロス、不確実性を認識した相互監督損失、および新しい平滑性損失が導入されます。
我々のモデルは、KITTIデータセット上の以前の教師なし手法よりも、より良い不均一性マップを得る。
論文 参考訳(メタデータ) (2021-04-09T02:58:59Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z) - A Novel Recurrent Encoder-Decoder Structure for Large-Scale Multi-view
Stereo Reconstruction from An Open Aerial Dataset [6.319667056655425]
我々は、WHUデータセットと呼ばれる合成空中データセットを提案し、これが最初の大規模多視点空中データセットである。
広帯域深度推定のための新しいネットワークRED-Netについても紹介する。
実験の結果,提案手法は現在のMVS法を50%以上の平均絶対誤差(MAE)で上回り,メモリと計算コストを削減できた。
論文 参考訳(メタデータ) (2020-03-02T03:04:13Z) - Deep Non-Line-of-Sight Reconstruction [18.38481917675749]
本稿では,再構成問題を効率的に解くために,畳み込みフィードフォワードネットワークを用いる。
本研究では,自動エンコーダアーキテクチャを設計し,一貫した画像を直接深度マップ表現にマッピングする。
筆者らのフィードフォワードネットワークは,合成データのみに基づいて訓練されているものの,SPADセンサの計測データに一般化し,モデルに基づく再構成手法と競合する結果が得られることを示した。
論文 参考訳(メタデータ) (2020-01-24T16:05:50Z) - Spatial-Spectral Residual Network for Hyperspectral Image
Super-Resolution [82.1739023587565]
ハイパースペクトル画像超解像のための新しいスペクトル空間残差ネットワーク(SSRNet)を提案する。
提案手法は,2次元畳み込みではなく3次元畳み込みを用いて空間スペクトル情報の探索を効果的に行うことができる。
各ユニットでは空間的・時間的分離可能な3次元畳み込みを用いて空間的・スペクトル的な情報を抽出する。
論文 参考訳(メタデータ) (2020-01-14T03:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。