論文の概要: A Lightweight Model-Driven 4D Radar Framework for Pervasive Human Detection in Harsh Conditions
- arxiv url: http://arxiv.org/abs/2601.13373v1
- Date: Mon, 19 Jan 2026 20:18:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.050659
- Title: A Lightweight Model-Driven 4D Radar Framework for Pervasive Human Detection in Harsh Conditions
- Title(参考訳): ハーシュ条件下での広汎な人体検出のための軽量モデル駆動4次元レーダフレームワーク
- Authors: Zhenan Liu, Amir Khajepour, George Shaker,
- Abstract要約: 本稿では,組込みエッジハードウェア上でのリアルタイム実行を目的とした,完全モデル駆動4次元レーダ認識フレームワークを提案する。
このフレームワークは、ダスト充填されたトレーラーと実際の地下トンネルで評価され、テストシナリオでは、レーダーベースの検出器は、カメラとLiDARのモダリティが深刻な視認性低下の下で安定した歩行者識別を維持する。
- 参考スコア(独自算出の注目度): 11.183137089778468
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Pervasive sensing in industrial and underground environments is severely constrained by airborne dust, smoke, confined geometry, and metallic structures, which rapidly degrade optical and LiDAR based perception. Elevation resolved 4D mmWave radar offers strong resilience to such conditions, yet there remains a limited understanding of how to process its sparse and anisotropic point clouds for reliable human detection in enclosed, visibility degraded spaces. This paper presents a fully model-driven 4D radar perception framework designed for real-time execution on embedded edge hardware. The system uses radar as its sole perception modality and integrates domain aware multi threshold filtering, ego motion compensated temporal accumulation, KD tree Euclidean clustering with Doppler aware refinement, and a rule based 3D classifier. The framework is evaluated in a dust filled enclosed trailer and in real underground mining tunnels, and in the tested scenarios the radar based detector maintains stable pedestrian identification as camera and LiDAR modalities fail under severe visibility degradation. These results suggest that the proposed model-driven approach provides robust, interpretable, and computationally efficient perception for safety-critical applications in harsh industrial and subterranean environments.
- Abstract(参考訳): 産業と地下の環境における広汎なセンシングは、空中塵、煙、閉じ込められた幾何学、および金属構造によって厳しく制約されており、光学的およびLiDARに基づく知覚は急速に低下している。
高度分解された4D mmWaveレーダーは、そのような条件に対して強い弾力性を提供するが、密閉された可視性劣化空間における信頼性の高い人間の検出のために、そのスパースと異方性点雲をどのように処理するかについては、限定的な理解が残っている。
本稿では,組込みエッジハードウェア上でのリアルタイム実行を目的とした,完全モデル駆動4次元レーダ認識フレームワークを提案する。
このシステムは、レーダーを唯一の知覚モダリティとして使用し、ドメイン認識マルチしきい値フィルタリング、エゴ運動補償時間蓄積、ドップラー認識機能付きKDツリーユークリッドクラスタリング、ルールベース3D分類器を統合する。
このフレームワークは、ダスト充填されたトレーラーと実際の地下トンネルで評価され、テストシナリオでは、レーダーベースの検出器は、カメラとLiDARのモダリティが深刻な視認性低下の下で安定した歩行者識別を維持する。
これらの結果は, 厳密な産業環境と地下環境における安全クリティカルな応用に対する頑健で解釈可能な, 計算的に効率的な認識を提供するモデル駆動型アプローチが提案されていることを示唆している。
関連論文リスト
- RadarGen: Automotive Radar Point Cloud Generation from Cameras [64.69976771710057]
マルチビューカメラ画像からリアルな自動車用レーダー点雲を合成するための拡散モデルRadarGenを提案する。
RadarGenは、鳥の目視でレーダー計測を表現することで、レーダ領域への効率的な画像遅延拡散を適応する。
本稿では,RadarGenが特徴的レーダ計測分布を捕捉し,実データに基づいて学習した知覚モデルとのギャップを小さくすることを示す。
論文 参考訳(メタデータ) (2025-12-19T18:57:33Z) - 4D-RaDiff: Latent Diffusion for 4D Radar Point Cloud Generation [10.945807584683726]
本研究では,物体検出装置の訓練および評価のための4次元レーダポイント雲を生成する新しいフレームワークを提案する。
提案された4D-RaDiffは、ラベルのないバウンディングボックスを高品質なレーダーアノテーションに変換し、既存のLiDARポイントクラウドデータをリアルなレーダーシーンに変換する。
論文 参考訳(メタデータ) (2025-12-16T09:43:05Z) - NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - RadarOcc: Robust 3D Occupancy Prediction with 4D Imaging Radar [15.776076554141687]
3D占有に基づく知覚パイプラインは、かなり進歩した自律運転を持つ。
現在の方法では、LiDARやカメラの入力を3D占有率予測に頼っている。
本稿では,4次元イメージングレーダセンサを用いた3次元占有予測手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T21:48:17Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。