論文の概要: Robust Dynamic Object Detection in Cluttered Indoor Scenes via Learned Spatiotemporal Cues
- arxiv url: http://arxiv.org/abs/2603.15826v1
- Date: Mon, 16 Mar 2026 18:59:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-21 18:33:56.883218
- Title: Robust Dynamic Object Detection in Cluttered Indoor Scenes via Learned Spatiotemporal Cues
- Title(参考訳): 学習時空間キューによる屋内シーンのロバストな動的物体検出
- Authors: Juan Rached, Yixuan Jia, Kota Kondo, Jonathan P. How,
- Abstract要約: 鳥眼視(BEV)により時間的占有感に基づく運動分節を融合させるLiDARのみのフレームワークを提案する。
モーションキャプチャー地上真実を用いた実験により,本手法は28.67%のリコール率,18.50%のF1スコアを達成した。
- 参考スコア(独自算出の注目度): 15.517814236046055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable dynamic object detection in cluttered environments remains a critical challenge for autonomous navigation. Purely geometric LiDAR pipelines that rely on clustering and heuristic filtering can miss dynamic obstacles when they move in close proximity to static structure or are only partially observed. Vision-augmented approaches can provide additional semantic cues, but are often limited by closed-set detectors and camera field-of-view constraints, reducing robustness to novel obstacles and out-of-frustum events. In this work, we present a LiDAR-only framework that fuses temporal occupancy-grid-based motion segmentation with a learned bird's-eye-view (BEV) dynamic prior. A fusion module prioritizes 3D detections when available, while using the learned dynamic grid to recover detections that would otherwise be lost due to proximity-induced false negatives. Experiments with motion-capture ground truth show our method achieves 28.67% higher recall and 18.50% higher F1 score than the state-of-the-art in substantially cluttered environments while maintaining comparable precision and position error.
- Abstract(参考訳): 乱雑な環境での信頼性の高い動的物体検出は、自律的なナビゲーションにとって重要な課題である。
クラスタリングとヒューリスティックフィルタに依存する純粋に幾何学的なLiDARパイプラインは、静的構造に近づいたり、部分的にしか観察されない場合に、ダイナミックな障害を見逃す可能性がある。
視覚増強されたアプローチは、追加のセマンティックな手がかりを提供することができるが、しばしばクローズドセット検出器やカメラフィールドオブビューの制約によって制限され、新しい障害物や外乱イベントに対するロバスト性を低下させる。
本研究では, 鳥眼視(BEV)を動的に学習し, 時間的占有感に基づく運動分節を融合させるLiDARのみのフレームワークを提案する。
融合モジュールは、利用可能なときに3D検出を優先順位付けし、学習された動的グリッドを使用して、近接によって引き起こされる偽陰性により失われる検出を回復する。
モーションキャプチャー地上真実を用いた実験では, 精度と位置誤差を同等に保ちながら, 高精度で28.67%, 高精度なF1スコアが18.50%向上した。
関連論文リスト
- Delving into Dynamic Scene Cue-Consistency for Robust 3D Multi-Object Tracking [16.366398265001422]
3D多目的追跡は、自動運転分野において重要かつ困難な課題である。
本稿では,この原理を実現するために動的シーンCue-Consistency Tracker(DSC-Track)を提案する。
論文 参考訳(メタデータ) (2025-08-15T08:48:13Z) - NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - Detecting Every Object from Events [24.58024539462497]
本稿では,イベントベースの視覚において,クラスに依存しない高速なオープンワールドオブジェクト検出を実現するためのアプローチとして,イベント中のすべてのオブジェクトの検出(DEOE)を提案する。
私たちのコードはhttps://github.com/Hatins/DEOEで公開されています。
論文 参考訳(メタデータ) (2024-04-08T08:20:53Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - ERASOR: Egocentric Ratio of Pseudo Occupancy-based Dynamic Object
Removal for Static 3D Point Cloud Map Building [0.1474723404975345]
本稿では,pSeudo Occupancy-based dynamic object Removal の ERASOR, Egocentric RAtio という新しい静的マップ構築手法を提案する。
私たちのアプローチは、必然的に地面と接触している都市環境における最もダイナミックなオブジェクトの性質にその注意を向けます。
論文 参考訳(メタデータ) (2021-03-07T10:29:07Z) - MAT: Motion-Aware Multi-Object Tracking [9.098793914779161]
本稿では,様々な物体の動作パターンに着目した動き認識トラッキング(MAT)を提案する。
MOT16とMOT17の挑戦的なベンチマークの実験は、我々のMATアプローチが大きなマージンで優れたパフォーマンスを達成することを実証している。
論文 参考訳(メタデータ) (2020-09-10T11:51:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。