論文の概要: Neural Implicit Representations for 3D Synthetic Aperture Radar Imaging
- arxiv url: http://arxiv.org/abs/2602.17556v1
- Date: Thu, 19 Feb 2026 17:10:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.230592
- Title: Neural Implicit Representations for 3D Synthetic Aperture Radar Imaging
- Title(参考訳): 3次元合成開口レーダイメージングのためのニューラルインプシティ表現法
- Authors: Nithin Sugavanam, Emre Ertin,
- Abstract要約: 合成開口レーダ(SAR)は3次元空間フーリエ変換の2次元スライスを測定するトモグラフィセンサである。
多くの運用シナリオでは、測定された2次元スライスセットはフーリエ領域の3次元空間を満たさない。
我々は,SARの帰還を支配下に置く表面散乱をモデル化するために,ニューラルネットワークを用いた3次元SARイメージングの最先端結果を実現するための最近の研究を概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthetic aperture radar (SAR) is a tomographic sensor that measures 2D slices of the 3D spatial Fourier transform of the scene. In many operational scenarios, the measured set of 2D slices does not fill the 3D space in the Fourier domain, resulting in significant artifacts in the reconstructed imagery. Traditionally, simple priors, such as sparsity in the image domain, are used to regularize the inverse problem. In this paper, we review our recent work that achieves state-of-the-art results in 3D SAR imaging employing neural structures to model the surface scattering that dominates SAR returns. These neural structures encode the surface of the objects in the form of a signed distance function learned from the sparse scattering data. Since estimating a smooth surface from a sparse and noisy point cloud is an ill-posed problem, we regularize the surface estimation by sampling points from the implicit surface representation during the training step. We demonstrate the model's ability to represent target scattering using measured and simulated data from single vehicles and a larger scene with a large number of vehicles. We conclude with future research directions calling for methods to learn complex-valued neural representations to enable synthesizing new collections from the volumetric neural implicit representation.
- Abstract(参考訳): 合成開口レーダ(SAR)は3次元空間フーリエ変換の2次元スライスを測定するトモグラフィセンサである。
多くの運用シナリオにおいて、測定された2次元スライスセットはフーリエ領域の3次元空間を満たさないため、再構成された画像において重要なアーティファクトとなる。
伝統的に、画像領域のスパーシティのような単純な先行は、逆問題を調整するために使用される。
本稿では,SARの帰還に支配的な表面散乱をモデル化するために,ニューラルネットワークを用いた3次元SAR画像の最先端化を図った最近の研究を概観する。
これらのニューラルネットワーク構造は、スパース散乱データから得られた符号付き距離関数の形で物体の表面を符号化する。
スパースおよびノイズ点雲から滑らかな表面を推定することは不適切な問題であるため、トレーニングステップ中に暗黙的な表面表現から点をサンプリングすることで表面推定を規則化する。
本研究では,単一車両と多数の車両からなる大規模シーンの計測およびシミュレーションデータを用いて,対象散乱を表現できるモデルの有用性を示す。
我々は,複雑に評価されたニューラル表現を学習し,容積的ニューラルな暗黙的表現から新たなコレクションを合成する手法を求める今後の研究方針をまとめる。
関連論文リスト
- A Probability-guided Sampler for Neural Implicit Surface Rendering [12.233362977312947]
ニューラル・ラジアンス・フィールド(NeRF)のいくつかの変種は、合成画像の精度と3Dシーン/オブジェクトの表面再構成を大幅に改善した。
重要な特徴は、可能なすべての入力データ、具体的には射影線に沿ったすべてのピクセルとポテンシャル3Dポイントでニューラルネットワークをトレーニングできないことである。
本稿では、前景の暗黙的な表面表現を活用し、3次元画像投影空間における確率密度関数をモデル化し、興味のある領域に向けて光線をよりターゲット的にサンプリングする。
論文 参考訳(メタデータ) (2025-06-10T09:28:16Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - NeAS: 3D Reconstruction from X-ray Images using Neural Attenuation Surface [0.5772546394254112]
2次元X線画像から3D構造を再構成することは、CTスキャンよりも放射線被曝が少ない医療応用において貴重な技術である。
暗黙の神経表現を用いた最近のアプローチは、スパースX線画像から新しいビューを合成することを可能にする。
本稿では, 表面形状と減衰係数場を同時に捉えるニューラル減衰面(NeAS)を用いて3次元シーンを再構成する手法を提案する。
論文 参考訳(メタデータ) (2025-03-10T16:11:58Z) - DSplats: 3D Generation by Denoising Splats-Based Multiview Diffusion Models [67.50989119438508]
本稿では,ガウスをベースとしたレコンストラクタを用いて,リアルな3Dアセットを生成することで,マルチビュー画像を直接認識するDSplatを紹介した。
実験の結果,DSplatsは高品質で空間的に一貫した出力を生成できるだけでなく,単一画像から3次元再構成への新たな標準も設定できることがわかった。
論文 参考訳(メタデータ) (2024-12-11T07:32:17Z) - StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - Sparse 3D Reconstruction via Object-Centric Ray Sampling [20.874406440346462]
本研究では,360度カメラリグから取得したスパースビューから3次元オブジェクトを復元する新しい手法を提案する。
我々は、校正ベースニューラル表現とトライアングルメッシュの両方を使用するハイブリッドモデルにより、オブジェクトを表現する。
私たちはGoogleのScanned Objects, Tank and Temples, MVMC Carデータセットのスパースなビューで作業しています。
論文 参考訳(メタデータ) (2023-09-06T13:54:31Z) - Neural Poisson: Indicator Functions for Neural Fields [25.41908065938424]
3次元形状の符号付き距離場表現(SDF)は顕著な進展を示した。
本稿では,3次元シーンのニューラルフィールド表現のための新しいパラダイムを提案する。
提案手法は, 合成3次元シーンデータと実写3次元シーンデータの両方に対して, 最先端の再構築性能を示す。
論文 参考訳(メタデータ) (2022-11-25T17:28:22Z) - Light Field Networks: Neural Scene Representations with
Single-Evaluation Rendering [60.02806355570514]
2次元観察から3Dシーンの表現を推定することは、コンピュータグラフィックス、コンピュータビジョン、人工知能の基本的な問題である。
そこで我々は,360度4次元光場における基礎となる3次元シーンの形状と外観の両面を表現した新しいニューラルシーン表現,光場ネットワーク(LFN)を提案する。
LFNからレイをレンダリングするには*single*ネットワークの評価しか必要としない。
論文 参考訳(メタデータ) (2021-06-04T17:54:49Z) - Learning to Drop Points for LiDAR Scan Synthesis [5.132259673802809]
3Dシーンのジェネラティブモデリングは、モバイルロボットが信頼できない観察を改善するための重要なトピックです。
点雲に関する既存の研究のほとんどは、小さく均一な密度のデータに焦点を当てている。
移動ロボットで広く使われている3次元LiDAR点雲は、多数の点と様々な密度のために扱いにくい。
本論文では,リアルなLiDARデータを改良した2次元表現として合成する,ジェネレーティブ・アドバーサリ・ネットワークに基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-23T21:53:14Z) - Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D
Shapes [77.6741486264257]
本稿では,高忠実度ニューラルネットワークSDFのリアルタイムレンダリングを可能にする,効率的なニューラル表現を提案する。
我々の表現は、以前の作品に比べてレンダリング速度の点で2~3桁の効率であることを示す。
論文 参考訳(メタデータ) (2021-01-26T18:50:22Z) - Pix2Surf: Learning Parametric 3D Surface Models of Objects from Images [64.53227129573293]
1つ以上の視点から見れば、新しいオブジェクトの3次元パラメトリック表面表現を学習する際の課題について検討する。
ビュー間で一貫した高品質なパラメトリックな3次元表面を生成できるニューラルネットワークを設計する。
提案手法は,共通対象カテゴリからの形状の公開データセットに基づいて,教師と訓練を行う。
論文 参考訳(メタデータ) (2020-08-18T06:33:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。