論文の概要: Radon Implicit Field Transform (RIFT): Learning Scenes from Radar Signals
- arxiv url: http://arxiv.org/abs/2410.19801v1
- Date: Wed, 16 Oct 2024 16:59:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-03 07:49:44.336706
- Title: Radon Implicit Field Transform (RIFT): Learning Scenes from Radar Signals
- Title(参考訳): Radon Implicit Field Transform (RIFT): レーダ信号からの学習シーン
- Authors: Daqian Bao, Alex Saad-Falcon, Justin Romberg,
- Abstract要約: Inlicit Neural Representation (INR)は、最小限のデータを持つコンパクトで連続的な表現を提供し、目に見えない視点に補間する。
本稿では、レーダフォワードモデル(Generalized Radon Transform, GRT)と、レーダ信号から学習したINRに基づくシーン表現を組み合わせたRadeon Implicit Field Transform (RIFT)を提案する。
RIFTは3倍の再構築を実現し、見当たらない視点に一般化すると10%改善する。
- 参考スコア(独自算出の注目度): 9.170594803531866
- License:
- Abstract: Data acquisition in array signal processing (ASP) is costly, as high angular and range resolutions require large antenna apertures and wide frequency bandwidths. Data requirements grow multiplicatively with viewpoints and frequencies, increasing collection burdens. Implicit Neural Representations (INRs)--neural network models of 3D scenes--offer compact, continuous representations with minimal data, interpolating to unseen viewpoints, potentially reducing sampling costs in ASP. We propose the Radon Implicit Field Transform (RIFT), combining a radar forward model (Generalized Radon Transform, GRT) with an INR-based scene representation learned from radar signals. This method extends to other ASP problems by replacing the GRT with appropriate algorithms. In experiments, we synthesize radar data using the GRT and train the INR model by minimizing radar signal reconstruction error. We render the scene using the trained INR and evaluate it against ground truth. We introduce new error metrics: phase-Root Mean Square Error (p-RMSE) and magnitude-Structural Similarity Index Measure (m-SSIM). Compared to traditional scene models, our RIFT model achieves up to 188% improvement in scene reconstruction with only 10% of the data. Using the same amount of data, RIFT achieves 3x better reconstruction and shows a 10% improvement when generalizing to unseen viewpoints.
- Abstract(参考訳): アレイ信号処理(ASP)におけるデータ取得は、高い角と範囲の解像度が大きなアンテナ開口と広い周波数帯域を必要とするため、コストがかかる。
データ要求は視点と周波数に乗じて増加し、収集の負担が増加する。
Inlicit Neural Representations (INR) - 3Dシーンのニューラルネットワークモデル - 最小限のデータによるコンパクトで連続的な表現、見えない視点への補間、ASP.NETのサンプリングコストの削減など。
本稿では、レーダフォワードモデル(Generalized Radon Transform, GRT)と、レーダ信号から学習したINRに基づくシーン表現を組み合わせたRadeon Implicit Field Transform (RIFT)を提案する。
この方法は、GRTを適切なアルゴリズムで置き換えることで、他のASP問題にも拡張する。
実験では、GRTを用いてレーダデータを合成し、レーダ信号再構成誤差を最小限に抑えてINRモデルを訓練する。
我々は、トレーニングされたINRを用いてシーンを描画し、地上の真実に対して評価する。
位相ループ平均角誤差(p-RMSE)と等級構造類似度指数測定(m-SSIM)という新しい誤差指標を導入する。
従来のシーンモデルと比較して, RIFTモデルでは, 全体の10%に過ぎず, シーン再構築において最大188%の改善が達成されている。
同じ量のデータを使用して、RIFTは3倍の再構築を実現し、見当たらない視点に一般化した場合、10%の改善を示す。
関連論文リスト
- SparseRadNet: Sparse Perception Neural Network on Subsampled Radar Data [5.344444942640663]
レーダー生データは、しばしば過剰なノイズを含むが、レーダー点雲は限られた情報しか保持しない。
本稿では,適応的なサブサンプリング手法と,空間パターンを利用したネットワークアーキテクチャを提案する。
RADIalデータセットの実験により,SparseRadNetはオブジェクト検出における最先端(SOTA)性能を超え,自由空間セグメンテーションにおけるSOTA精度に近づいた。
論文 参考訳(メタデータ) (2024-06-15T11:26:10Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Thermal-Infrared Remote Target Detection System for Maritime Rescue
based on Data Augmentation with 3D Synthetic Data [4.66313002591741]
本稿では,深層学習とデータ拡張を用いた海難救助のための熱赤外(TIR)遠隔目標検出システムを提案する。
データセットの不足に対処し、モデルの堅牢性を改善するために、3Dゲーム(ARMA3)からの合成データセットを収集する。
提案したセグメンテーションモデルは,最先端セグメンテーション手法の性能を上回る。
論文 参考訳(メタデータ) (2023-10-31T12:37:49Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - A Deep Learning Approach for SAR Tomographic Imaging of Forested Areas [10.477070348391079]
我々は,1つのフィードフォワードパスでトモグラフィインバージョンを実行するために,軽量ニューラルネットワークをトレーニング可能であることを示す。
我々は、シミュレーションデータを用いてエンコーダ・デコーダネットワークを訓練し、実LバンドとPバンドのデータに基づいてその手法を検証する。
論文 参考訳(メタデータ) (2023-01-20T14:34:03Z) - VolRecon: Volume Rendering of Signed Ray Distance Functions for
Generalizable Multi-View Reconstruction [64.09702079593372]
VolRecon は Signed Ray Distance Function (SRDF) を用いた新しい一般化可能な暗黙的再構成法である
DTUデータセットでは、VolReconはスパースビュー再構築においてSparseNeuSを約30%上回り、フルビュー再構築においてMVSNetと同等の精度を達成する。
論文 参考訳(メタデータ) (2022-12-15T18:59:54Z) - AligNeRF: High-Fidelity Neural Radiance Fields via Alignment-Aware
Training [100.33713282611448]
我々は、高分解能データによるNeRFのトレーニングに関する最初のパイロット研究を行う。
本稿では,多層パーセプトロンと畳み込み層との結合を含む,対応する解を提案する。
私たちのアプローチは、明らかなトレーニング/テストコストを導入することなく、ほぼ無償です。
論文 参考訳(メタデータ) (2022-11-17T17:22:28Z) - Is Attention All NeRF Needs? [103.51023982774599]
Generalizable NeRF Transformer (GNT) は、ソースビューから高速にNeRF(Neural Radiance Fields)を効率的に再構築する、純粋で統一されたトランスフォーマーベースのアーキテクチャである。
GNTは、2つのトランスフォーマーベースのステージをカプセル化することにより、一般化可能なニューラルシーン表現とレンダリングを実現する。
論文 参考訳(メタデータ) (2022-07-27T05:09:54Z) - Radar Image Reconstruction from Raw ADC Data using Parametric
Variational Autoencoder with Domain Adaptation [0.0]
本研究では,パラメータ制約付き変分オートエンコーダを提案し,レンジ角画像上でクラスタ化および局所化されたターゲット検出を生成する。
実際のレーダデータを用いて可能なすべてのシナリオにおいて,提案するニューラルネットワークをトレーニングする問題を回避すべく,ドメイン適応戦略を提案する。
論文 参考訳(メタデータ) (2022-05-30T16:17:36Z) - Toward Data-Driven STAP Radar [23.333816677794115]
我々は、時空間適応処理(STAP)レーダーに対するデータ駆動アプローチを特徴付ける。
所定領域に可変強度のターゲットをランダムに配置することにより、受信レーダ信号の豊富なサンプルデータセットを生成する。
この領域内の各データサンプルに対して、ビームフォーマの出力パワーのレンジ、方位、および上昇のヒートマップテンソルを生成する。
空中に浮かぶシナリオでは、動くレーダーは、ビデオに似た、これらのタイムインデクシングされたイメージスタックのシーケンスを生成する。
論文 参考訳(メタデータ) (2022-01-26T02:28:13Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。