論文の概要: CMAR-Net: Accurate Cross-Modal 3D SAR Reconstruction of Vehicle Targets with Sparse Multi-Baseline Data
- arxiv url: http://arxiv.org/abs/2406.04158v3
- Date: Mon, 13 Jan 2025 17:44:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:22:40.317488
- Title: CMAR-Net: Accurate Cross-Modal 3D SAR Reconstruction of Vehicle Targets with Sparse Multi-Baseline Data
- Title(参考訳): CMAR-Net:Sparse Multi-Baseline Dataを用いた車両目標の高精度3次元SAR再構成
- Authors: Da Li, Guoqiang Zhao, Houjun Sun, Jiacheng Bao,
- Abstract要約: マルチベースライン合成開口レーダ(SAR)3次元トモグラフィは重要なリモートセンシング技術である。
限られた開口部のデータに依存したスパース3D SARの最近の進歩は、費用対効果の代替手段として注目されている。
異種情報を統合することで3次元SAR画像の高精細化を実現する3D-SAR再構成ネットワーク(CMAR-Net)を提案する。
- 参考スコア(独自算出の注目度): 5.6680936716261705
- License:
- Abstract: Multi-baseline Synthetic Aperture Radar (SAR) three-dimensional (3D) tomography is a crucial remote sensing technique that provides 3D resolution unavailable in conventional SAR imaging. However, achieving high-quality imaging typically requires multi-angle or full-aperture data, resulting in significant imaging costs. Recent advancements in sparse 3D SAR, which rely on data from limited apertures, have gained attention as a cost-effective alternative. Notably, deep learning techniques have markedly enhanced the imaging quality of sparse 3D SAR. Despite these advancements, existing methods primarily depend on high-resolution radar images for supervising the training of deep neural networks (DNNs). This exclusive dependence on single-modal data prevents the introduction of complementary information from other data sources, limiting further improvements in imaging performance. In this paper, we introduce a Cross-Modal 3D-SAR Reconstruction Network (CMAR-Net) to enhance 3D SAR imaging by integrating heterogeneous information. Leveraging cross-modal supervision from 2D optical images and error transfer guaranteed by differentiable rendering, CMAR-Net achieves efficient training and reconstructs highly sparse multi-baseline SAR data into visually structured and accurate 3D images, particularly for vehicle targets. Extensive experiments on simulated and real-world datasets demonstrate that CMAR-Net significantly outperforms SOTA sparse reconstruction algorithms based on compressed sensing (CS) and deep learning (DL). Furthermore, our method eliminates the need for time-consuming full-aperture data preprocessing and relies solely on computer-rendered optical images, significantly reducing dataset construction costs. This work highlights the potential of deep learning for multi-baseline SAR 3D imaging and introduces a novel framework for radar imaging research through cross-modal learning.
- Abstract(参考訳): SAR(Multi-baseline Synthetic Aperture Radar)3次元トモグラフィは,従来のSAR画像では利用できない3次元分解能を実現する重要なリモートセンシング技術である。
しかし、高画質の撮像を実現するには、通常マルチアングルまたはフルアパーチャのデータが必要であるため、画像のコストは大幅に高くなる。
限られた開口部のデータに依存したスパース3D SARの最近の進歩は、費用対効果の代替手段として注目されている。
特に、深層学習技術はスパース3D SARの撮像品質を著しく向上させた。
これらの進歩にもかかわらず、既存の手法は主にディープニューラルネットワーク(DNN)のトレーニングを監督する高解像度レーダー画像に依存している。
この単一モードデータへの排他的依存は、他のデータソースからの補完情報の導入を防止し、画像性能のさらなる改善を制限している。
本稿では,異種情報の統合による3次元SAR画像の高精細化を実現するために,Cross-Modal 3D-SARコンストラクションネットワーク(CMAR-Net)を提案する。
CMAR-Netは2次元光学画像と異なるレンダリングによって保証されるエラー転送から、効率的なトレーニングを行い、高度にスパースなマルチベースラインSARデータを視覚的に構造化された正確な3D画像に再構成する。
シミュレーションおよび実世界のデータセットに対する大規模な実験により、CMAR-Netは圧縮センシング(CS)と深層学習(DL)に基づいてSOTAスパース再構成アルゴリズムを著しく上回っていることが示された。
さらに,本手法では,フルアパーチャデータ前処理の必要性を排除し,コンピュータレンダリング光画像のみに依存して,データセット構築コストを大幅に削減する。
本研究は,マルチベースラインSAR 3Dイメージングにおけるディープラーニングの可能性を強調し,クロスモーダル学習によるレーダイメージング研究のための新しいフレームワークを導入する。
関連論文リスト
- Multi-Resolution SAR and Optical Remote Sensing Image Registration Methods: A Review, Datasets, and Future Perspectives [13.749888089968373]
リモートセンシングデータ融合には合成開口レーダ(SAR)と光画像登録が不可欠である。
画像の解像度が向上するにつれて、微細なSARテクスチャがより重要になり、アライメントの問題と3次元空間の相違が生じる。
MultiResSARデータセットは10万組以上のマルチソース、マルチ解像度、マルチシーンSARおよび光学画像を含む。
論文 参考訳(メタデータ) (2025-02-03T02:51:30Z) - LargeAD: Large-Scale Cross-Sensor Data Pretraining for Autonomous Driving [52.83707400688378]
LargeADは多用途でスケーラブルなフレームワークで、さまざまな現実世界の運転データセットにわたる大規模3D事前トレーニング用に設計されている。
我々のフレームワークは、VFMを利用して2次元画像から意味的にリッチなスーパーピクセルを抽出し、LiDAR点雲に整列して高品質なコントラストサンプルを生成する。
提案手法は,LDARに基づくセグメント化とオブジェクト検出の両面において,線形探索と微調整の両作業において,最先端の手法よりも大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2025-01-07T18:59:59Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - DH-GAN: A Physics-driven Untrained Generative Adversarial Network for 3D
Microscopic Imaging using Digital Holography [3.4635026053111484]
デジタルホログラフィー(Digital holography)は、平面波面を持つレーザービームを物体に放出し、ホログラムと呼ばれる回折波形の強度を測定する3Dイメージング技術である。
近年,より正確なホログラフィック処理に深層学習(DL)法が用いられている。
本稿では, 識別ネットワークを用いて, 復元品質のセマンティック尺度を実現する, 生成的敵ネットワークに基づく新しいDLアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:13:45Z) - Deep-Learning-Based Single-Image Height Reconstruction from
Very-High-Resolution SAR Intensity Data [1.7894377200944511]
本稿では,リモートセンシングにおける他の重要なセンサモードである合成開口レーダ(SAR)データに対する,深層学習に基づく単一画像の高さ予測の初めての実演を示す。
SAR強度画像に対する畳み込みニューラルネットワーク(CNN)アーキテクチャの適用に加えて、トレーニングデータ生成のためのワークフローを提案する。
転送可能性に特に重点を置いているので、深層学習に基づく単一画像の高さ推定が可能であるだけでなく、目に見えないデータにかなりうまく転送可能であることを確認できます。
論文 参考訳(メタデータ) (2021-11-03T08:20:03Z) - Stereo Matching by Self-supervision of Multiscopic Vision [65.38359887232025]
カメラ位置の整列で撮影した複数の画像を利用したステレオマッチングのための新しい自己監視フレームワークを提案する。
ネットワークを最適化するために、クロスフォトメトリックロス、不確実性を認識した相互監督損失、および新しい平滑性損失が導入されます。
我々のモデルは、KITTIデータセット上の以前の教師なし手法よりも、より良い不均一性マップを得る。
論文 参考訳(メタデータ) (2021-04-09T02:58:59Z) - Compressive spectral image classification using 3D coded convolutional
neural network [12.67293744927537]
本稿では、符号化開口スナップショット分光画像(CASSI)の測定に基づく新しい深層学習HIC手法を提案する。
3次元符号化畳み込みニューラルネットワーク(3D-CCNN)と呼ばれる新しいタイプのディープラーニング戦略を提案し,その分類問題を効率的に解く。
ディープラーニングネットワークと符号化開口部の相乗効果を利用して、分類精度を効果的に向上する。
論文 参考訳(メタデータ) (2020-09-23T15:05:57Z) - X-ModalNet: A Semi-Supervised Deep Cross-Modal Network for
Classification of Remote Sensing Data [69.37597254841052]
我々はX-ModalNetと呼ばれる新しいクロスモーダルディープラーニングフレームワークを提案する。
X-ModalNetは、ネットワークの上部にある高レベルな特徴によって構築されたアップダスタブルグラフ上にラベルを伝搬するため、うまく一般化する。
我々は2つのマルチモーダルリモートセンシングデータセット(HSI-MSIとHSI-SAR)上でX-ModalNetを評価し、いくつかの最先端手法と比較して大幅に改善した。
論文 参考訳(メタデータ) (2020-06-24T15:29:41Z) - A Novel Recurrent Encoder-Decoder Structure for Large-Scale Multi-view
Stereo Reconstruction from An Open Aerial Dataset [6.319667056655425]
我々は、WHUデータセットと呼ばれる合成空中データセットを提案し、これが最初の大規模多視点空中データセットである。
広帯域深度推定のための新しいネットワークRED-Netについても紹介する。
実験の結果,提案手法は現在のMVS法を50%以上の平均絶対誤差(MAE)で上回り,メモリと計算コストを削減できた。
論文 参考訳(メタデータ) (2020-03-02T03:04:13Z) - Spatial-Spectral Residual Network for Hyperspectral Image
Super-Resolution [82.1739023587565]
ハイパースペクトル画像超解像のための新しいスペクトル空間残差ネットワーク(SSRNet)を提案する。
提案手法は,2次元畳み込みではなく3次元畳み込みを用いて空間スペクトル情報の探索を効果的に行うことができる。
各ユニットでは空間的・時間的分離可能な3次元畳み込みを用いて空間的・スペクトル的な情報を抽出する。
論文 参考訳(メタデータ) (2020-01-14T03:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。