論文の概要: Towards Foundational Models for Single-Chip Radar
- arxiv url: http://arxiv.org/abs/2509.12482v1
- Date: Mon, 15 Sep 2025 22:06:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.781735
- Title: Towards Foundational Models for Single-Chip Radar
- Title(参考訳): 単一チップレーダの基礎モデルに向けて
- Authors: Tianshu Huang, Akarsh Prabhakara, Chuhan Chen, Jay Karhade, Deva Ramanan, Matthew O'Toole, Anthony Rowe,
- Abstract要約: mmWaveレーダーは小型で安価で耐久性のあるセンサーで、天気や暗闇といった環境条件によらず機能する。
これは角分解能の低さ、特に自動車や屋内センサーの用途で一般的に使用される安価な単チップレーダーのコストが伴う。
我々は、4Dシングルチップレーダーの基本モデルを訓練し、3D占有率とセマンティックセマンティックセグメンテーションを、高解像度センサーでのみ可能な品質で予測できる。
- 参考スコア(独自算出の注目度): 49.896124982717716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: mmWave radars are compact, inexpensive, and durable sensors that are robust to occlusions and work regardless of environmental conditions, such as weather and darkness. However, this comes at the cost of poor angular resolution, especially for inexpensive single-chip radars, which are typically used in automotive and indoor sensing applications. Although many have proposed learning-based methods to mitigate this weakness, no standardized foundational models or large datasets for the mmWave radar have emerged, and practitioners have largely trained task-specific models from scratch using relatively small datasets. In this paper, we collect (to our knowledge) the largest available raw radar dataset with 1M samples (29 hours) and train a foundational model for 4D single-chip radar, which can predict 3D occupancy and semantic segmentation with quality that is typically only possible with much higher resolution sensors. We demonstrate that our Generalizable Radar Transformer (GRT) generalizes across diverse settings, can be fine-tuned for different tasks, and shows logarithmic data scaling of 20\% per $10\times$ data. We also run extensive ablations on common design decisions, and find that using raw radar data significantly outperforms widely-used lossy representations, equivalent to a $10\times$ increase in training data. Finally, we roughly estimate that $\approx$100M samples (3000 hours) of data are required to fully exploit the potential of GRT.
- Abstract(参考訳): mmWaveレーダーはコンパクトで安価で耐久性のあるセンサーで、閉塞に対して頑丈で、天候や暗闇といった環境条件によらず機能する。
しかし、これは角分解能の低さ、特に自動車や屋内センサーの用途で一般的に使用される安価な単チップレーダーのコストが伴う。
多くの者がこの弱点を軽減するための学習ベースの手法を提案しているが、標準化された基礎モデルやmmWaveレーダーのための大規模なデータセットは登場しておらず、実践者は比較的小さなデータセットを使用して、スクラッチからタスク固有のモデルをほとんど訓練してきた。
本稿では,1Mサンプル(29時間)で利用可能な最大の生レーダデータセットを収集し,高解像度センサでのみ可能な品質で3D占有率とセマンティックセグメンテーションを予測できる4Dシングルチップレーダの基礎モデルを訓練する。
我々は、GRT(Generalizable Radar Transformer)が様々な設定にまたがって一般化し、様々なタスクに微調整できることを示した。
また、一般的な設計決定に関する広範囲にわたる議論を行い、生のレーダーデータを使用することで、トレーニングデータの10ドル以上の増加に相当する、広く使われている損失表現を著しく上回っていることに気付きました。
最後に、GRTの可能性を完全に活用するためには、およそ$\approx$100M(3000時間)のデータサンプルが必要であると見積もる。
関連論文リスト
- HeRCULES: Heterogeneous Radar Dataset in Complex Urban Environment for Multi-session Radar SLAM [9.462058316827804]
HeRCULESデータセットは、ヘテロジニアスレーダー、FMCW LiDAR、IMU、GPS、カメラを備えた包括的なマルチモーダルデータセットである。
これは、FMCW LiDARと並行して4Dレーダと回転レーダを統合する最初のデータセットであり、非並列なローカライゼーション、マッピング、位置認識機能を提供する。
論文 参考訳(メタデータ) (2025-02-04T02:41:00Z) - RASPNet: A Benchmark Dataset for Radar Adaptive Signal Processing Applications [20.589332431911842]
RASPNetデータセットは16TBを超えるサイズで、アメリカ合衆国全土の様々な地形や土地にまたがる現実的なシナリオを100種類構成している。
RASPNetは、レーダーと複雑な値の学習アルゴリズムのベンチマークに使用できる、空中レーダー設定からの1万のクラッタ実現で構成されている。
RASPNetが現実的な適応型レーダ処理シナリオにどのように使用できるかを示すために、転送学習の例を含む、その構成、組織、およびいくつかのアプリケーションの概要を述べる。
論文 参考訳(メタデータ) (2024-06-14T00:07:52Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Better Monocular 3D Detectors with LiDAR from the Past [64.6759926054061]
カメラベースの3D検出器は、画像の奥行きのあいまいさのため、LiDARベースの検出器に比べて性能が劣ることが多い。
本研究では,未ラベルの歴史的LiDARデータを活用することにより,単分子3D検出器の改良を図る。
複数の最先端モデルやデータセットに対して,9.66ミリ秒の追加レイテンシとストレージコストの低い,一貫性と大幅なパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-04-08T01:38:43Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - RadarFormer: Lightweight and Accurate Real-Time Radar Object Detection
Model [13.214257841152033]
レーダー中心のデータセットは、レーダー知覚のためのディープラーニング技術の開発にはあまり注目されていない。
本稿では,視覚深層学習における最先端技術を活用したトランスフォーマーモデルRadarFormerを提案する。
また、チャネルチャープ時マージモジュールを導入し、精度を損なうことなく、モデルのサイズと複雑さを10倍以上に削減する。
論文 参考訳(メタデータ) (2023-04-17T17:07:35Z) - ERASE-Net: Efficient Segmentation Networks for Automotive Radar Signals [13.035425992944543]
本稿では,効率的なレーダセグメンテーションネットワークであるERASE-Netを導入し,生のレーダ信号を意味的に分割する。
本手法は,最新技術(SOTA)と比較して,レーダセマンティックセグメンテーションタスクにおいて優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2022-09-26T18:23:22Z) - Multi-View Radar Semantic Segmentation [3.2093811507874768]
自動車用レーダーは、周囲の物体の特性を測定する安価なアクティブセンサーである。
レーダー生データのサイズと複雑さのため、シーン理解にはほとんど使われない。
我々は,複数の新しいアーキテクチャとそれに伴う損失を提案し,レンジアングル・ドップラーレーダテンソルの複数の"ビュー"を分析し,意味的にセグメンテーションする。
論文 参考訳(メタデータ) (2021-03-30T09:56:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。