論文の概要: Multi-view 3D surface reconstruction from SAR images by inverse rendering
- arxiv url: http://arxiv.org/abs/2502.10492v1
- Date: Fri, 14 Feb 2025 13:19:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:09:18.873108
- Title: Multi-view 3D surface reconstruction from SAR images by inverse rendering
- Title(参考訳): 逆レンダリングによるSAR画像からの多視点3次元表面再構成
- Authors: Emile Barbier--Renard, Florence Tupin, Nicolas Trouvé, Loïc Denis,
- Abstract要約: 本稿では,制約のない合成開口レーダ(SAR)画像から3次元再構成を行うための新しい逆レンダリング手法を提案する。
本手法は,SAR画像における幾何学的不均一性を利用する可能性を示し,マルチセンサデータ融合の道を開く。
- 参考スコア(独自算出の注目度): 4.964816143841665
- License:
- Abstract: 3D reconstruction of a scene from Synthetic Aperture Radar (SAR) images mainly relies on interferometric measurements, which involve strict constraints on the acquisition process. These last years, progress in deep learning has significantly advanced 3D reconstruction from multiple views in optical imaging, mainly through reconstruction-by-synthesis approaches pioneered by Neural Radiance Fields. In this paper, we propose a new inverse rendering method for 3D reconstruction from unconstrained SAR images, drawing inspiration from optical approaches. First, we introduce a new simplified differentiable SAR rendering model, able to synthesize images from a digital elevation model and a radar backscattering coefficients map. Then, we introduce a coarse-to-fine strategy to train a Multi-Layer Perceptron (MLP) to fit the height and appearance of a given radar scene from a few SAR views. Finally, we demonstrate the surface reconstruction capabilities of our method on synthetic SAR images produced by ONERA's physically-based EMPRISE simulator. Our method showcases the potential of exploiting geometric disparities in SAR images and paves the way for multi-sensor data fusion.
- Abstract(参考訳): SAR(Synthetic Aperture Radar)画像からのシーンの3次元再構成は、主に、取得プロセスに厳しい制約を含む干渉計測に依存する。
近年の深層学習の進歩は、主にニューラル・ラディアンス・フィールド(英語版)によって開拓された再構成・合成アプローチを通じて、複数の光学画像からの3次元再構成を著しく進歩させてきた。
本稿では,光学的アプローチからインスピレーションを得て,制約のないSAR画像から3次元再構成を行うための新しい逆レンダリング手法を提案する。
まず,デジタル標高モデルとレーダ後方散乱係数マップから画像を合成できる簡易化可能なSARレンダリングモデルを提案する。
そこで我々は,SARビューから与えられたレーダーシーンの高さと外観に合わせるために,MLP(Multi-Layer Perceptron)を訓練する粗大な戦略を導入する。
最後に, ONERA の物理ベース EMPRISE シミュレータにより生成した合成 SAR 画像に対して, 提案手法の表面再構成機能を示す。
本手法は,SAR画像における幾何学的不均一性を利用する可能性を示し,マルチセンサデータ融合の道を開く。
関連論文リスト
- MaRINeR: Enhancing Novel Views by Matching Rendered Images with Nearby References [49.71130133080821]
MaRINeRは、近くのマッピング画像の情報を活用して、ターゲット視点のレンダリングを改善する方法である。
暗黙のシーン表現と暗黙のシーン表現の両方から、定量的な指標と定性的な例のレンダリングの改善を示す。
論文 参考訳(メタデータ) (2024-07-18T17:50:03Z) - GTR: Improving Large 3D Reconstruction Models through Geometry and Texture Refinement [51.97726804507328]
マルチビュー画像から3次元メッシュを再構成する手法を提案する。
提案手法は, 変圧器を用いたトリプレーンジェネレータとニューラルレージアンスフィールド(NeRF)モデルを用いた大規模再構成モデルから着想を得たものである。
論文 参考訳(メタデータ) (2024-06-09T05:19:24Z) - CMAR-Net: Accurate Cross-Modal 3D SAR Reconstruction of Vehicle Targets with Sparse Multi-Baseline Data [5.6680936716261705]
マルチベースライン合成開口レーダ(SAR)3次元トモグラフィは重要なリモートセンシング技術である。
限られた開口部のデータに依存したスパース3D SARの最近の進歩は、費用対効果の代替手段として注目されている。
異種情報を統合することで3次元SAR画像の高精細化を実現する3D-SAR再構成ネットワーク(CMAR-Net)を提案する。
論文 参考訳(メタデータ) (2024-06-06T15:18:59Z) - ReconFusion: 3D Reconstruction with Diffusion Priors [104.73604630145847]
本稿では,数枚の写真を用いて現実のシーンを再構成するReconFusionを提案する。
提案手法は,合成および多視点データセットに基づいて訓練された新規なビュー合成に先立って拡散を利用する。
本手法は,観測領域の外観を保ちながら,非拘束領域における現実的な幾何学とテクスチャを合成する。
論文 参考訳(メタデータ) (2023-12-05T18:59:58Z) - A Deep Learning Approach for SAR Tomographic Imaging of Forested Areas [10.477070348391079]
我々は,1つのフィードフォワードパスでトモグラフィインバージョンを実行するために,軽量ニューラルネットワークをトレーニング可能であることを示す。
我々は、シミュレーションデータを用いてエンコーダ・デコーダネットワークを訓練し、実LバンドとPバンドのデータに基づいてその手法を検証する。
論文 参考訳(メタデータ) (2023-01-20T14:34:03Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - Differentiable SAR Renderer and SAR Target Reconstruction [7.840247953745616]
SARイメージング機構のマッピングと投影を再構成する微分可能SAR(DSR)を開発した。
SAR画像からの3次元逆ターゲット再構成アルゴリズムを考案した。
論文 参考訳(メタデータ) (2022-05-14T17:24:32Z) - Differentiable Rendering for Synthetic Aperture Radar Imagery [0.0]
本稿では,3次元コンピュータグラフィックスの手法とニューラルレンダリングを組み合わせた合成開口レーダ(SAR)画像の微分可能レンダリング手法を提案する。
高忠実度シミュレーションSARデータを用いた限られたSAR画像からの3次元オブジェクト再構成の逆画像問題に対するアプローチを実証する。
論文 参考訳(メタデータ) (2022-04-04T05:27:40Z) - Urban Radiance Fields [77.43604458481637]
本研究では,都市屋外環境における世界地図作成によく利用されるスキャニングプラットフォームによって収集されたデータから3次元再構成と新しいビュー合成を行う。
提案手法は、制御された環境下での小さなシーンのための現実的な新しい画像の合成を実証したニューラルラジアンス場を拡張している。
これら3つのエクステンションはそれぞれ、ストリートビューデータの実験において、大幅なパフォーマンス改善を提供する。
論文 参考訳(メタデータ) (2021-11-29T15:58:16Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。