論文の概要: Radon Implicit Field Transform (RIFT): Learning Scenes from Radar Signals
- arxiv url: http://arxiv.org/abs/2410.19801v2
- Date: Sun, 08 Dec 2024 20:46:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 16:49:05.291684
- Title: Radon Implicit Field Transform (RIFT): Learning Scenes from Radar Signals
- Title(参考訳): Radon Implicit Field Transform (RIFT): レーダ信号からの学習シーン
- Authors: Daqian Bao, Alex Saad-Falcon, Justin Romberg,
- Abstract要約: Implicit Neural Representation (INR)は、最小限のレーダーデータでコンパクトで連続的な表現を提供する。
RIFTは、レーダーのための古典的なフォワードモデルとINRベースのシーン表現の2つのコンポーネントで構成されている。
データフットプリントは10%に過ぎず、RIFTモデルはシーン再構築において最大188%の改善を実現している。
- 参考スコア(独自算出の注目度): 9.170594803531866
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Data acquisition in array signal processing (ASP) is costly because achieving high angular and range resolutions necessitates large antenna apertures and wide frequency bandwidths, respectively. The data requirements for ASP problems grow multiplicatively with the number of viewpoints and frequencies, significantly increasing the burden of data collection, even for simulation. Implicit Neural Representations (INRs) -- neural network-based models of 3D objects and scenes -- offer compact and continuous representations with minimal radar data. They can interpolate to unseen viewpoints and potentially address the sampling cost in ASP problems. In this work, we select Synthetic Aperture Radar (SAR) as a case from ASP and propose Radon Implicit Field Transform (RIFT). RIFT consists of two components: a classical forward model for radar (Generalized Radon Transform, GRT), and an INR based scene representation learned from radar signals. This method can be extended to other ASP problems by replacing the GRT with appropriate algorithms corresponding to different data modalities. In our experiments, we first synthesize radar data using the GRT. We then train the INR model on this synthetic data by minimizing the reconstruction error of the radar signal. After training, we render the scene using the trained INR and evaluate our scene representation against the ground truth scene. Due to the lack of existing benchmarks, we introduce two main new error metrics: phase-Root Mean Square Error (p-RMSE) for radar signal interpolation, and magnitude-Structural Similarity Index measure(m-SSIM) for scene reconstruction. These metrics adapt traditional error measures to account for the complex nature of radar signals. Compared to traditional scene models in radar signal processing, with only 10% data footprint, our RIFT model achieves up to 188% improvement in scene reconstruction.
- Abstract(参考訳): アレイ信号処理(ASP)におけるデータ取得は、高角分解能とレンジ分解能がそれぞれ大きなアンテナ開口と広い周波数帯域を必要とするため、費用がかかる。
ASP問題のデータ要求は、視点と周波数の数に乗じて増大し、シミュレーションにおいてもデータ収集の負担が大幅に増大する。
Implicit Neural Representation (INRs) – 3Dオブジェクトとシーンのニューラルネットワークベースのモデル – は、最小限のレーダーデータによるコンパクトで連続的な表現を提供する。
それらは見当たらない視点に解釈でき、ASP問題のサンプリングコストに対処する可能性がある。
本研究では、ASPからSAR(Synthetic Aperture Radar)を選択し、RIFT(Radon Implicit Field Transform)を提案する。
RIFTは、レーダーのための古典的なフォワードモデル(Generalized Radon Transform, GRT)と、レーダー信号から学習したINRベースのシーン表現の2つのコンポーネントで構成されている。
この方法は、GRTを異なるデータモダリティに対応する適切なアルゴリズムに置き換えることで、他のASP問題に拡張することができる。
実験では,まずGRTを用いてレーダデータを合成する。
次に、レーダ信号の再構成誤差を最小限に抑えて、この合成データに基づいてINRモデルを訓練する。
トレーニング後、トレーニングされたINRを用いてシーンを描画し、地上の真実のシーンに対してシーン表現を評価する。
既存のベンチマークの欠如により,レーダ信号補間のための位相ループ平均角誤差 (p-RMSE) と,シーン再構成のための大きさ構造類似度指標 (m-SSIM) の2つの新しい誤差指標を導入した。
これらの指標は、レーダー信号の複雑な性質を考慮に入れた従来の誤差測定に適合する。
レーダ信号処理における従来のシーンモデルと比較して、データフットプリントが10%しかなく、RIFTモデルはシーン再構築において最大188%の改善を実現している。
関連論文リスト
- DRO: Doppler-Aware Direct Radar Odometry [11.042292216861762]
移動ロボットアプリケーションのためのレーダーによるセンシングのルネッサンスが進行中である。
スピン周波数変調連続波レーダのための新しいSE(2)オドメトリー手法を提案する。
提案手法は,公開データセットから250km以上のオンロードデータに対して検証されている。
論文 参考訳(メタデータ) (2025-04-29T01:20:30Z) - LaRI: Layered Ray Intersections for Single-view 3D Geometric Reasoning [75.9814389360821]
層状光線交差(LaRI)は、1つの画像から未知の幾何学的推論を行う新しい方法である。
コンパクトで階層的な表現から恩恵を受けることで、LaRIは完全で効率的でビュー整合な幾何学的推論を可能にする。
3Dオブジェクトやシーンを含む、合成および実世界のデータのための完全なトレーニングデータ生成パイプラインを構築します。
論文 参考訳(メタデータ) (2025-04-25T15:31:29Z) - Radar Signal Recognition through Self-Supervised Learning and Domain Adaptation [48.265859815346985]
RFサンプルとラベルを限定した環境下でのレーダ信号認識を強化するための自己教師付き学習(SSL)手法を提案する。
具体的には,各種RF領域のベースバンド内位相および2次(I/Q)信号に対する事前学習マスク付きオートエンコーダ(MAE)について検討する。
その結果,ドメイン適応型軽量自己教師型ResNetモデルでは,1ショットの分類精度が最大17.5%向上した。
論文 参考訳(メタデータ) (2025-01-07T01:35:56Z) - SparseRadNet: Sparse Perception Neural Network on Subsampled Radar Data [5.344444942640663]
レーダー生データは、しばしば過剰なノイズを含むが、レーダー点雲は限られた情報しか保持しない。
本稿では,適応的なサブサンプリング手法と,空間パターンを利用したネットワークアーキテクチャを提案する。
RADIalデータセットの実験により,SparseRadNetはオブジェクト検出における最先端(SOTA)性能を超え,自由空間セグメンテーションにおけるSOTA精度に近づいた。
論文 参考訳(メタデータ) (2024-06-15T11:26:10Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Thermal-Infrared Remote Target Detection System for Maritime Rescue
based on Data Augmentation with 3D Synthetic Data [4.66313002591741]
本稿では,深層学習とデータ拡張を用いた海難救助のための熱赤外(TIR)遠隔目標検出システムを提案する。
データセットの不足に対処し、モデルの堅牢性を改善するために、3Dゲーム(ARMA3)からの合成データセットを収集する。
提案したセグメンテーションモデルは,最先端セグメンテーション手法の性能を上回る。
論文 参考訳(メタデータ) (2023-10-31T12:37:49Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - Generation of Realistic Synthetic Raw Radar Data for Automated Driving
Applications using Generative Adversarial Networks [0.0]
本研究では、GAN(Generative Adversarial Network)を用いた合成生レーダデータを生成するFMCWレーダシミュレーションの高速化手法を提案する。
コードとトレーニング済みのウェイトはオープンソースで、GitHubから入手可能だ。
以上の結果から, 車両のコヒーレントレーダ反射と背景騒音は, チャープ, RAマップ, 物体検出結果の比較に基づいて, 現実的であることがわかった。
論文 参考訳(メタデータ) (2023-08-04T17:44:27Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - A Deep Learning Approach for SAR Tomographic Imaging of Forested Areas [10.477070348391079]
我々は,1つのフィードフォワードパスでトモグラフィインバージョンを実行するために,軽量ニューラルネットワークをトレーニング可能であることを示す。
我々は、シミュレーションデータを用いてエンコーダ・デコーダネットワークを訓練し、実LバンドとPバンドのデータに基づいてその手法を検証する。
論文 参考訳(メタデータ) (2023-01-20T14:34:03Z) - VolRecon: Volume Rendering of Signed Ray Distance Functions for
Generalizable Multi-View Reconstruction [64.09702079593372]
VolRecon は Signed Ray Distance Function (SRDF) を用いた新しい一般化可能な暗黙的再構成法である
DTUデータセットでは、VolReconはスパースビュー再構築においてSparseNeuSを約30%上回り、フルビュー再構築においてMVSNetと同等の精度を達成する。
論文 参考訳(メタデータ) (2022-12-15T18:59:54Z) - AligNeRF: High-Fidelity Neural Radiance Fields via Alignment-Aware
Training [100.33713282611448]
我々は、高分解能データによるNeRFのトレーニングに関する最初のパイロット研究を行う。
本稿では,多層パーセプトロンと畳み込み層との結合を含む,対応する解を提案する。
私たちのアプローチは、明らかなトレーニング/テストコストを導入することなく、ほぼ無償です。
論文 参考訳(メタデータ) (2022-11-17T17:22:28Z) - Is Attention All NeRF Needs? [103.51023982774599]
Generalizable NeRF Transformer (GNT) は、ソースビューから高速にNeRF(Neural Radiance Fields)を効率的に再構築する、純粋で統一されたトランスフォーマーベースのアーキテクチャである。
GNTは、2つのトランスフォーマーベースのステージをカプセル化することにより、一般化可能なニューラルシーン表現とレンダリングを実現する。
論文 参考訳(メタデータ) (2022-07-27T05:09:54Z) - Radar Image Reconstruction from Raw ADC Data using Parametric
Variational Autoencoder with Domain Adaptation [0.0]
本研究では,パラメータ制約付き変分オートエンコーダを提案し,レンジ角画像上でクラスタ化および局所化されたターゲット検出を生成する。
実際のレーダデータを用いて可能なすべてのシナリオにおいて,提案するニューラルネットワークをトレーニングする問題を回避すべく,ドメイン適応戦略を提案する。
論文 参考訳(メタデータ) (2022-05-30T16:17:36Z) - Toward Data-Driven STAP Radar [23.333816677794115]
我々は、時空間適応処理(STAP)レーダーに対するデータ駆動アプローチを特徴付ける。
所定領域に可変強度のターゲットをランダムに配置することにより、受信レーダ信号の豊富なサンプルデータセットを生成する。
この領域内の各データサンプルに対して、ビームフォーマの出力パワーのレンジ、方位、および上昇のヒートマップテンソルを生成する。
空中に浮かぶシナリオでは、動くレーダーは、ビデオに似た、これらのタイムインデクシングされたイメージスタックのシーケンスを生成する。
論文 参考訳(メタデータ) (2022-01-26T02:28:13Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。