論文の概要: A Comparative Study of 3D Person Detection: Sensor Modalities and Robustness in Diverse Indoor and Outdoor Environments
- arxiv url: http://arxiv.org/abs/2602.05538v1
- Date: Thu, 05 Feb 2026 10:53:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.895206
- Title: A Comparative Study of 3D Person Detection: Sensor Modalities and Robustness in Diverse Indoor and Outdoor Environments
- Title(参考訳): 3次元人物検出法の比較研究:各種屋外・屋外環境におけるセンサのモーダリティとロバスト性
- Authors: Malaz Tamim, Andrea Matic-Flierl, Karsten Roscher,
- Abstract要約: 本研究では,カメラオンリー,LiDARオンリー,カメラ-LiDAR融合を用いた3次元人物検出の系統的評価を行う。
BEVDepth(カメラ)、PointPillars(LiDAR)、DAL(カメラ-LiDAR融合)の3つの代表モデルを比較した。
その結果,核融合によるアプローチは,特に挑戦的なシナリオにおいて,単一モダリティモデルよりも一貫して優れていることがわかった。
- 参考スコア(独自算出の注目度): 5.89179309980335
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate 3D person detection is critical for safety in applications such as robotics, industrial monitoring, and surveillance. This work presents a systematic evaluation of 3D person detection using camera-only, LiDAR-only, and camera-LiDAR fusion. While most existing research focuses on autonomous driving, we explore detection performance and robustness in diverse indoor and outdoor scenes using the JRDB dataset. We compare three representative models - BEVDepth (camera), PointPillars (LiDAR), and DAL (camera-LiDAR fusion) - and analyze their behavior under varying occlusion and distance levels. Our results show that the fusion-based approach consistently outperforms single-modality models, particularly in challenging scenarios. We further investigate robustness against sensor corruptions and misalignments, revealing that while DAL offers improved resilience, it remains sensitive to sensor misalignment and certain LiDAR-based corruptions. In contrast, the camera-based BEVDepth model showed the lowest performance and was most affected by occlusion, distance, and noise. Our findings highlight the importance of utilizing sensor fusion for enhanced 3D person detection, while also underscoring the need for ongoing research to address the vulnerabilities inherent in these systems.
- Abstract(参考訳): 正確な3D人物検出は、ロボット工学、産業監視、監視といった応用において、安全のために重要である。
本研究では,カメラオンリー,LiDARオンリー,カメラ-LiDAR融合を用いた3次元人物検出の系統的評価を行う。
既存の研究は自動運転に重点を置いているが,JRDBデータセットを用いた屋内・屋外の多様なシーンにおける検出性能とロバスト性について検討する。
BEVDepth (camera)、PointPillars (LiDAR)、DAL (camera-LiDAR fusion)の3つの代表的なモデルを比較し、それらの挙動を様々な閉塞レベルと距離レベルで解析する。
その結果,核融合によるアプローチは,特に挑戦的なシナリオにおいて,単一モダリティモデルよりも一貫して優れていることがわかった。
さらに,センサの破損や誤認識に対する堅牢性について検討し,DALはレジリエンスを改善しつつも,センサの誤認識やLiDARベースの破損に敏感であることを明らかにする。
対照的に、カメラベースのBEVDepthモデルは最低性能を示し、閉塞、距離、騒音の影響が最も大きい。
本研究は,3次元人物検出の強化にセンサフュージョンを活用することの重要性を浮き彫りにするとともに,これらのシステムに固有の脆弱性に対処するための継続的な研究の必要性を浮き彫りにしている。
関連論文リスト
- RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - MSC-Bench: Benchmarking and Analyzing Multi-Sensor Corruption for Driving Perception [9.575044300747061]
マルチセンサー融合モデルは、特に3Dオブジェクト検出やHDマップ構築といったタスクにおいて、自律運転知覚において重要な役割を果たす。
これらのモデルは、自律運転システムに必須かつ包括的な静的環境情報を提供する。
カメラ-LiDAR融合法は有望な結果を示しているが、それらはしばしば完全なセンサー入力に依存する。
この依存は、センサーが破損したり行方不明になったりした場合のロバスト性や潜在的な故障を招き、重大な安全性上の懸念を引き起こす可能性がある。
この課題に対処するために,多センサ自律運転知覚モデルの各種センサ破損に対する堅牢性評価を目的とした,初の総合的なベンチマークであるMulti-Sensor Corruption Benchmark(MSC-Bench)を導入する。
論文 参考訳(メタデータ) (2025-01-02T03:38:46Z) - Better Monocular 3D Detectors with LiDAR from the Past [64.6759926054061]
カメラベースの3D検出器は、画像の奥行きのあいまいさのため、LiDARベースの検出器に比べて性能が劣ることが多い。
本研究では,未ラベルの歴史的LiDARデータを活用することにより,単分子3D検出器の改良を図る。
複数の最先端モデルやデータセットに対して,9.66ミリ秒の追加レイテンシとストレージコストの低い,一貫性と大幅なパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-04-08T01:38:43Z) - CR3DT: Camera-RADAR Fusion for 3D Detection and Tracking [40.630532348405595]
Camera-RADAR 3D Detection and Tracking (CR3DT)は3Dオブジェクト検出のためのカメラ・レーダ融合モデルであり、Multi-Object Tracking (MOT) である。
State-of-the-Art (SotA)カメラ専用のBEVDetアーキテクチャの基礎の上に構築されたCR3DTは、検出機能とトラッキング機能の両方で大幅に改善されている。
論文 参考訳(メタデータ) (2024-03-22T16:06:05Z) - Robo3D: Towards Robust and Reliable 3D Perception against Corruptions [58.306694836881235]
我々は,3次元検出器とセグメンタのロバスト性を,アウト・オブ・ディストリビューションのシナリオで検証するための,最初の総合的なベンチマークであるRobo3Dを紹介する。
気象条件の悪化,外乱,センサの故障などに起因する8種類の汚職について検討した。
本稿では,モデルレジリエンスを高めるための簡易なフレキシブルなボキセル化戦略とともに,密度に敏感なトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-30T17:59:17Z) - Benchmarking Robustness of 3D Object Detection to Common Corruptions in
Autonomous Driving [44.753797839280516]
既存の3D検出器は、悪天候やセンサーノイズなどによって引き起こされる現実世界の腐敗に対して堅牢性に欠ける。
実世界の運転シナリオを考慮したLiDARとカメラ入力の27種類の共通汚職をベンチマークした。
本研究は,24種類の3次元物体検出モデルを用いた大規模実験を行い,ロバスト性の評価を行った。
論文 参考訳(メタデータ) (2023-03-20T11:45:54Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Sensor Adversarial Traits: Analyzing Robustness of 3D Object Detection
Sensor Fusion Models [16.823829387723524]
我々は,高性能でオープンソースのセンサ融合モデルアーキテクチャの強靭性を敵攻撃に対して解析する。
LIDARセンサーを使用しているにもかかわらず、このモデルは、意図的に構築された画像ベースの敵攻撃に対して脆弱であることがわかった。
論文 参考訳(メタデータ) (2021-09-13T23:38:42Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。