論文の概要: RaGNNarok: A Light-Weight Graph Neural Network for Enhancing Radar Point Clouds on Unmanned Ground Vehicles
- arxiv url: http://arxiv.org/abs/2507.00937v1
- Date: Tue, 01 Jul 2025 16:42:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.735865
- Title: RaGNNarok: A Light-Weight Graph Neural Network for Enhancing Radar Point Clouds on Unmanned Ground Vehicles
- Title(参考訳): RaGNNarok:無人地上車両におけるレーダー点雲の強化のための軽量グラフニューラルネットワーク
- Authors: David Hunt, Shaocheng Luo, Spencer Hallyburton, Shafii Nillongo, Yi Li, Tingjun Chen, Miroslav Pajic,
- Abstract要約: 我々は、レーダポイントクラウドを強化するために、リアルタイムで軽量で一般化可能なグラフニューラルネットワークフレームワークであるRaGNNarokを紹介した。
RaGNNarokはリソース制約のあるデバイスでも効率的に動作し、追加の計算リソースを必要としない。
以上の結果から,RaGNNarokを低コスト屋内移動ロボットのロバストなソリューションとして,信頼性と汎用性を実証した。
- 参考スコア(独自算出の注目度): 12.029656955984262
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Low-cost indoor mobile robots have gained popularity with the increasing adoption of automation in homes and commercial spaces. However, existing lidar and camera-based solutions have limitations such as poor performance in visually obscured environments, high computational overhead for data processing, and high costs for lidars. In contrast, mmWave radar sensors offer a cost-effective and lightweight alternative, providing accurate ranging regardless of visibility. However, existing radar-based localization suffers from sparse point cloud generation, noise, and false detections. Thus, in this work, we introduce RaGNNarok, a real-time, lightweight, and generalizable graph neural network (GNN)-based framework to enhance radar point clouds, even in complex and dynamic environments. With an inference time of just 7.3 ms on the low-cost Raspberry Pi 5, RaGNNarok runs efficiently even on such resource-constrained devices, requiring no additional computational resources. We evaluate its performance across key tasks, including localization, SLAM, and autonomous navigation, in three different environments. Our results demonstrate strong reliability and generalizability, making RaGNNarok a robust solution for low-cost indoor mobile robots.
- Abstract(参考訳): 低コストの屋内移動ロボットは、住宅や商業空間での自動化の普及で人気を博している。
しかし、既存のライダーとカメラベースのソリューションは、視覚的に不明瞭な環境での性能が低いこと、データ処理の計算オーバーヘッドが高いこと、ライダーのコストが高いこと、といった制限がある。
対照的に、mmWaveレーダーセンサーはコスト効率が高く軽量な代替手段を提供し、視界に関係なく正確な範囲を提供する。
しかし、既存のレーダーによる局所化は、希少な点雲の生成、ノイズ、誤検出に悩まされている。
そこで本稿では,RaGNNarokについて紹介する。RaGNNarokはリアルタイムで軽量で汎用的なグラフニューラルネットワーク(GNN)ベースのフレームワークで,複雑な動的環境においてもレーダポイントクラウドを強化する。
低価格のRaspberry Pi 5では7.3msしか推論できないため、RaGNNarokはリソース制約のあるデバイスでも効率的に動作し、追加の計算リソースを必要としない。
我々は,3つの異なる環境において,局所化,SLAM,自律ナビゲーションなどの重要なタスクにおいて,その性能を評価する。
以上の結果から,RaGNNarokを低コスト屋内移動ロボットのロバストなソリューションとして,信頼性と汎用性を実証した。
関連論文リスト
- Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Diffusion-Based Point Cloud Super-Resolution for mmWave Radar Data [8.552647576661174]
ミリ波レーダセンサは、環境条件下では安定した性能を維持している。
レーダー点雲は比較的希薄で、巨大なゴーストポイントを含んでいる。
本稿では3次元ミリ波レーダデータに対する新しい点雲超解像法,Radar-diffusionを提案する。
論文 参考訳(メタデータ) (2024-04-09T04:41:05Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - EV-Catcher: High-Speed Object Catching Using Low-latency Event-based
Neural Networks [107.62975594230687]
イベントカメラが優れており、高速移動物体の衝突位置を正確に推定するアプリケーションを実証する。
イベントデータを低レイテンシでエンコードするために,Binary Event History Image(BEHI)と呼ばれる軽量なイベント表現を導入する。
計算制約のある組込みプラットフォーム上でも最大13m/sの速さで, 異なる場所をターゲットとした球のキャッチにおいて, 81%の成功率を達成することができることを示す。
論文 参考訳(メタデータ) (2023-04-14T15:23:28Z) - CRN: Camera Radar Net for Accurate, Robust, Efficient 3D Perception [20.824179713013734]
カメラレーダ融合フレームワークであるカメラレーダネット(CRN)を提案する。
CRNは、様々なタスクに対して意味的にリッチで空間的に正確な鳥眼視(BEV)特徴マップを生成する。
リアルタイム設定のCRNは20FPSで動作し、nuScenes上のLiDAR検出器に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2023-04-03T00:47:37Z) - NVRadarNet: Real-Time Radar Obstacle and Free Space Detection for
Autonomous Driving [57.03126447713602]
本稿では,自動車のRADARセンサを用いて動的障害物や乾燥可能な自由空間を検出するディープニューラルネットワーク(DNN)を提案する。
ネットワークは組み込みGPU上でリアルタイムよりも高速に動作し、地理的領域にわたって優れた一般化を示す。
論文 参考訳(メタデータ) (2022-09-29T01:30:34Z) - RAMP-CNN: A Novel Neural Network for Enhanced Automotive Radar Object
Recognition [10.006245521984697]
本稿では,オブジェクトの位置とクラスを抽出するマルチパースペクティブ・畳み込みニューラルネットワーク(RAMP-CNN)を提案する。
4次元畳み込みニューラルネットワーク(NN)の複雑さを回避するため、RAMP-CNNモデルにいくつかの低次元NNモデルを組み合わせることを提案する。
提案したRAMP-CNNモデルは、すべてのテストシナリオにおける以前の作業よりも平均リコールと平均精度が向上する。
論文 参考訳(メタデータ) (2020-11-13T19:12:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。