論文の概要: Radon Implicit Field Transform (RIFT): Learning Scenes from Radar Signals
- arxiv url: http://arxiv.org/abs/2410.19801v2
- Date: Sun, 08 Dec 2024 20:46:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:50:07.790239
- Title: Radon Implicit Field Transform (RIFT): Learning Scenes from Radar Signals
- Title(参考訳): Radon Implicit Field Transform (RIFT): レーダ信号からの学習シーン
- Authors: Daqian Bao, Alex Saad-Falcon, Justin Romberg,
- Abstract要約: Implicit Neural Representation (INR)は、最小限のレーダーデータでコンパクトで連続的な表現を提供する。
RIFTは、レーダーのための古典的なフォワードモデルとINRベースのシーン表現の2つのコンポーネントで構成されている。
データフットプリントは10%に過ぎず、RIFTモデルはシーン再構築において最大188%の改善を実現している。
- 参考スコア(独自算出の注目度): 9.170594803531866
- License:
- Abstract: Data acquisition in array signal processing (ASP) is costly because achieving high angular and range resolutions necessitates large antenna apertures and wide frequency bandwidths, respectively. The data requirements for ASP problems grow multiplicatively with the number of viewpoints and frequencies, significantly increasing the burden of data collection, even for simulation. Implicit Neural Representations (INRs) -- neural network-based models of 3D objects and scenes -- offer compact and continuous representations with minimal radar data. They can interpolate to unseen viewpoints and potentially address the sampling cost in ASP problems. In this work, we select Synthetic Aperture Radar (SAR) as a case from ASP and propose Radon Implicit Field Transform (RIFT). RIFT consists of two components: a classical forward model for radar (Generalized Radon Transform, GRT), and an INR based scene representation learned from radar signals. This method can be extended to other ASP problems by replacing the GRT with appropriate algorithms corresponding to different data modalities. In our experiments, we first synthesize radar data using the GRT. We then train the INR model on this synthetic data by minimizing the reconstruction error of the radar signal. After training, we render the scene using the trained INR and evaluate our scene representation against the ground truth scene. Due to the lack of existing benchmarks, we introduce two main new error metrics: phase-Root Mean Square Error (p-RMSE) for radar signal interpolation, and magnitude-Structural Similarity Index measure(m-SSIM) for scene reconstruction. These metrics adapt traditional error measures to account for the complex nature of radar signals. Compared to traditional scene models in radar signal processing, with only 10% data footprint, our RIFT model achieves up to 188% improvement in scene reconstruction.
- Abstract(参考訳): アレイ信号処理(ASP)におけるデータ取得は、高角分解能とレンジ分解能がそれぞれ大きなアンテナ開口と広い周波数帯域を必要とするため、費用がかかる。
ASP問題のデータ要求は、視点と周波数の数に乗じて増大し、シミュレーションにおいてもデータ収集の負担が大幅に増大する。
Implicit Neural Representation (INRs) – 3Dオブジェクトとシーンのニューラルネットワークベースのモデル – は、最小限のレーダーデータによるコンパクトで連続的な表現を提供する。
それらは見当たらない視点に解釈でき、ASP問題のサンプリングコストに対処する可能性がある。
本研究では、ASPからSAR(Synthetic Aperture Radar)を選択し、RIFT(Radon Implicit Field Transform)を提案する。
RIFTは、レーダーのための古典的なフォワードモデル(Generalized Radon Transform, GRT)と、レーダー信号から学習したINRベースのシーン表現の2つのコンポーネントで構成されている。
この方法は、GRTを異なるデータモダリティに対応する適切なアルゴリズムに置き換えることで、他のASP問題に拡張することができる。
実験では,まずGRTを用いてレーダデータを合成する。
次に、レーダ信号の再構成誤差を最小限に抑えて、この合成データに基づいてINRモデルを訓練する。
トレーニング後、トレーニングされたINRを用いてシーンを描画し、地上の真実のシーンに対してシーン表現を評価する。
既存のベンチマークの欠如により,レーダ信号補間のための位相ループ平均角誤差 (p-RMSE) と,シーン再構成のための大きさ構造類似度指標 (m-SSIM) の2つの新しい誤差指標を導入した。
これらの指標は、レーダー信号の複雑な性質を考慮に入れた従来の誤差測定に適合する。
レーダ信号処理における従来のシーンモデルと比較して、データフットプリントが10%しかなく、RIFTモデルはシーン再構築において最大188%の改善を実現している。
関連論文リスト
- Radar Signal Recognition through Self-Supervised Learning and Domain Adaptation [48.265859815346985]
RFサンプルとラベルを限定した環境下でのレーダ信号認識を強化するための自己教師付き学習(SSL)手法を提案する。
具体的には,各種RF領域のベースバンド内位相および2次(I/Q)信号に対する事前学習マスク付きオートエンコーダ(MAE)について検討する。
その結果,ドメイン適応型軽量自己教師型ResNetモデルでは,1ショットの分類精度が最大17.5%向上した。
論文 参考訳(メタデータ) (2025-01-07T01:35:56Z) - SparseRadNet: Sparse Perception Neural Network on Subsampled Radar Data [5.344444942640663]
レーダー生データは、しばしば過剰なノイズを含むが、レーダー点雲は限られた情報しか保持しない。
本稿では,適応的なサブサンプリング手法と,空間パターンを利用したネットワークアーキテクチャを提案する。
RADIalデータセットの実験により,SparseRadNetはオブジェクト検出における最先端(SOTA)性能を超え,自由空間セグメンテーションにおけるSOTA精度に近づいた。
論文 参考訳(メタデータ) (2024-06-15T11:26:10Z) - RASPNet: A Benchmark Dataset for Radar Adaptive Signal Processing Applications [20.589332431911842]
RASPNetデータセットは16TBを超えるサイズで、アメリカ合衆国全土の様々な地形や土地にまたがる現実的なシナリオを100種類構成している。
RASPNetは、レーダーと複雑な値の学習アルゴリズムのベンチマークに使用できる、空中レーダー設定からの1万のクラッタ実現で構成されている。
RASPNetが現実的な適応型レーダ処理シナリオにどのように使用できるかを示すために、転送学習の例を含む、その構成、組織、およびいくつかのアプリケーションの概要を述べる。
論文 参考訳(メタデータ) (2024-06-14T00:07:52Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Diffusion Models for Interferometric Satellite Aperture Radar [73.01013149014865]
確率拡散モデル (Probabilistic Diffusion Models, PDMs) は、最近、非常に有望な生成モデルのクラスとして登場した。
ここでは、PDMを活用して、レーダーベースの衛星画像データセットを複数生成する。
PDMは複雑で現実的な構造を持つ画像を生成することに成功したが、サンプリング時間は依然として問題である。
論文 参考訳(メタデータ) (2023-08-31T16:26:17Z) - Generation of Realistic Synthetic Raw Radar Data for Automated Driving
Applications using Generative Adversarial Networks [0.0]
本研究では、GAN(Generative Adversarial Network)を用いた合成生レーダデータを生成するFMCWレーダシミュレーションの高速化手法を提案する。
コードとトレーニング済みのウェイトはオープンソースで、GitHubから入手可能だ。
以上の結果から, 車両のコヒーレントレーダ反射と背景騒音は, チャープ, RAマップ, 物体検出結果の比較に基づいて, 現実的であることがわかった。
論文 参考訳(メタデータ) (2023-08-04T17:44:27Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - Is Attention All NeRF Needs? [103.51023982774599]
Generalizable NeRF Transformer (GNT) は、ソースビューから高速にNeRF(Neural Radiance Fields)を効率的に再構築する、純粋で統一されたトランスフォーマーベースのアーキテクチャである。
GNTは、2つのトランスフォーマーベースのステージをカプセル化することにより、一般化可能なニューラルシーン表現とレンダリングを実現する。
論文 参考訳(メタデータ) (2022-07-27T05:09:54Z) - Radar Image Reconstruction from Raw ADC Data using Parametric
Variational Autoencoder with Domain Adaptation [0.0]
本研究では,パラメータ制約付き変分オートエンコーダを提案し,レンジ角画像上でクラスタ化および局所化されたターゲット検出を生成する。
実際のレーダデータを用いて可能なすべてのシナリオにおいて,提案するニューラルネットワークをトレーニングする問題を回避すべく,ドメイン適応戦略を提案する。
論文 参考訳(メタデータ) (2022-05-30T16:17:36Z) - Toward Data-Driven STAP Radar [23.333816677794115]
我々は、時空間適応処理(STAP)レーダーに対するデータ駆動アプローチを特徴付ける。
所定領域に可変強度のターゲットをランダムに配置することにより、受信レーダ信号の豊富なサンプルデータセットを生成する。
この領域内の各データサンプルに対して、ビームフォーマの出力パワーのレンジ、方位、および上昇のヒートマップテンソルを生成する。
空中に浮かぶシナリオでは、動くレーダーは、ビデオに似た、これらのタイムインデクシングされたイメージスタックのシーケンスを生成する。
論文 参考訳(メタデータ) (2022-01-26T02:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。