論文の概要: SAR-NeRF: Neural Radiance Fields for Synthetic Aperture Radar Multi-View
Representation
- arxiv url: http://arxiv.org/abs/2307.05087v1
- Date: Tue, 11 Jul 2023 07:37:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-12 15:53:07.120059
- Title: SAR-NeRF: Neural Radiance Fields for Synthetic Aperture Radar Multi-View
Representation
- Title(参考訳): SAR-NeRF:合成開口レーダマルチビュー表現のためのニューラルレーダ場
- Authors: Zhengxin Lei, Feng Xu, Jiangtao Wei, Feng Cai, Feng Wang, and Ya-Qiu
Jin
- Abstract要約: 本研究では、SARイメージング機構とニューラルネットワークを組み合わせることで、SAR画像生成のための新しいNeRFモデルを提案する。
SAR-NeRFは、ボクセルの減衰係数と散乱強度の分布を学習するために構築される。
その結果,SAR-NeRFオーグメンテーションデータセットは,数ショットの学習設定でSARターゲット分類性能を大幅に向上できることがわかった。
- 参考スコア(独自算出の注目度): 7.907504142396784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: SAR images are highly sensitive to observation configurations, and they
exhibit significant variations across different viewing angles, making it
challenging to represent and learn their anisotropic features. As a result,
deep learning methods often generalize poorly across different view angles.
Inspired by the concept of neural radiance fields (NeRF), this study combines
SAR imaging mechanisms with neural networks to propose a novel NeRF model for
SAR image generation. Following the mapping and projection pinciples, a set of
SAR images is modeled implicitly as a function of attenuation coefficients and
scattering intensities in the 3D imaging space through a differentiable
rendering equation. SAR-NeRF is then constructed to learn the distribution of
attenuation coefficients and scattering intensities of voxels, where the
vectorized form of 3D voxel SAR rendering equation and the sampling
relationship between the 3D space voxels and the 2D view ray grids are
analytically derived. Through quantitative experiments on various datasets, we
thoroughly assess the multi-view representation and generalization capabilities
of SAR-NeRF. Additionally, it is found that SAR-NeRF augumented dataset can
significantly improve SAR target classification performance under few-shot
learning setup, where a 10-type classification accuracy of 91.6\% can be
achieved by using only 12 images per class.
- Abstract(参考訳): SAR画像は観測構成に非常に敏感であり、様々な角度で大きな変化を示しており、異方性の特徴を表現および学習することは困難である。
結果として、深層学習法は、視角の異なる部分でよく一般化される。
神経放射場(NeRF)の概念に触発された本研究では,SARイメージング機構とニューラルネットワークを組み合わせて,SAR画像生成のための新しいNeRFモデルを提案する。
マッピングおよび投影ピンプルに続いて、一組のSAR画像は、微分可能なレンダリング方程式を通して、3次元画像空間における減衰係数と散乱強度の関数として暗黙的にモデル化される。
次に、3DボクセルSARレンダリング方程式のベクトル化形式と、3D空間ボクセルと2Dビューレイグリッドのサンプリング関係を解析的に導出したボクセルの減衰係数と散乱強度の分布を学習するためにSAR-NeRFを構築した。
各種データセットの定量的実験を通じて,SAR-NeRFの多視点表現と一般化能力を徹底的に評価する。
さらに,SAR-NeRFオーグメンテーションデータセットは,SAR目標分類性能を,クラス毎に12画像のみを用いることで,10種類の分類精度91.6\%の精度で向上させることができることがわかった。
関連論文リスト
- Sparse-DeRF: Deblurred Neural Radiance Fields from Sparse View [17.214047499850487]
本稿では,より現実的なシナリオに対するスパースビューから,分解型ニューラルラジアンスフィールド(DeRF)を構築することに焦点を当てる。
Sparse-DeRFは複雑なジョイント最適化を正則化し、緩和されたオーバーフィッティングアーティファクトとラディアンスフィールドの品質を向上した。
2ビュー,4ビュー,6ビューのぼかし画像からDeRFをトレーニングすることにより,Sparse-DeRFの有効性を示す。
論文 参考訳(メタデータ) (2024-07-09T07:36:54Z) - Learning Surface Scattering Parameters From SAR Images Using
Differentiable Ray Tracing [8.19502673278742]
本稿では,スペキュラとディフューズの両方を包括的に考慮した表面マイクロ波レンダリングモデルを提案する。
CSVBSDF表面散乱パラメータ学習のためのSAR画像に基づく微分可能レイトレーシング(DRT)エンジンを構築した。
提案手法の有効性はシミュレーションと実SAR画像との比較により検証されている。
論文 参考訳(メタデータ) (2024-01-02T12:09:06Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - Multi-Space Neural Radiance Fields [74.46513422075438]
既存のニューラルレージアンス場(NeRF)法は反射物体の存在に悩まされている。
並列部分空間における特徴場の群を用いてシーンを表現するマルチスペースニューラルレイディアンス場(MS-NeRF)を提案する。
提案手法は,高品質シーンのレンダリングにおいて,既存の単一空間NeRF法よりも優れていた。
論文 参考訳(メタデータ) (2023-05-07T13:11:07Z) - Single-Stage Diffusion NeRF: A Unified Approach to 3D Generation and
Reconstruction [77.69363640021503]
3D対応画像合成は、シーン生成や画像からの新規ビュー合成など、様々なタスクを含む。
本稿では,様々な物体の多視点画像から,ニューラルラディアンス場(NeRF)の一般化可能な事前学習を行うために,表現拡散モデルを用いた統一的アプローチであるSSDNeRFを提案する。
論文 参考訳(メタデータ) (2023-04-13T17:59:01Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - Differentiable SAR Renderer and SAR Target Reconstruction [7.840247953745616]
SARイメージング機構のマッピングと投影を再構成する微分可能SAR(DSR)を開発した。
SAR画像からの3次元逆ターゲット再構成アルゴリズムを考案した。
論文 参考訳(メタデータ) (2022-05-14T17:24:32Z) - Enhancement of Novel View Synthesis Using Omnidirectional Image
Completion [61.78187618370681]
ニューラルレイディアンス場(NeRF)に基づく1枚の360度RGB-D画像から新しいビューを合成する方法を提案する。
実験により,提案手法は実世界と実世界の両方でシーンの特徴を保ちながら,可塑性な新規なビューを合成できることが実証された。
論文 参考訳(メタデータ) (2022-03-18T13:49:25Z) - NeRF-SR: High-Quality Neural Radiance Fields using Super-Sampling [82.99453001445478]
主に低分解能(LR)入力を用いた高分解能(HR)新規ビュー合成のソリューションであるNeRF-SRを提案する。
提案手法は,多層パーセプトロンを用いて各点密度と色を予測するニューラルレージアンス場(NeRF)上に構築されている。
論文 参考訳(メタデータ) (2021-12-03T07:33:47Z) - An Arbitrary Scale Super-Resolution Approach for 3-Dimensional Magnetic
Resonance Image using Implicit Neural Representation [37.43985628701494]
高分解能(HR)医療画像は、早期かつ正確な診断を容易にするために、豊富な解剖学的構造の詳細を提供する。
近年の研究では、深部畳み込みニューラルネットワークを用いて、低分解能(LR)入力から等方性HR MR像を復元できることが示されている。
Arbitrary Scale Super-Resolution approach for recovering 3D HR MR images。
論文 参考訳(メタデータ) (2021-10-27T14:48:54Z) - Sparse Signal Models for Data Augmentation in Deep Learning ATR [0.8999056386710496]
ドメイン知識を取り入れ,データ集約学習アルゴリズムの一般化能力を向上させるためのデータ拡張手法を提案する。
本研究では,空間領域における散乱中心のスパース性とアジムタル領域における散乱係数の滑らかな変動構造を活かし,過パラメータモデルフィッティングの問題を解く。
論文 参考訳(メタデータ) (2020-12-16T21:46:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。