論文の概要: Physics-Guided Fusion for Robust 3D Tracking of Fast Moving Small Objects
- arxiv url: http://arxiv.org/abs/2510.20126v1
- Date: Thu, 23 Oct 2025 02:00:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.129137
- Title: Physics-Guided Fusion for Robust 3D Tracking of Fast Moving Small Objects
- Title(参考訳): 高速移動小物体のロバスト3次元追跡のための物理誘導核融合
- Authors: Prithvi Raj Singh, Raju Gottumukkala, Anthony S. Maida, Alan B. Barhorst, Vijaya Gopu,
- Abstract要約: 本稿では,RGB-Dカメラを用いた高速移動小物体の検出と追跡の課題に対処する。
本システムは,ディープラーニングに基づく検出と物理に基づくトラッキングを組み合わせることで,既存のアプローチの限界を克服する。
本システムは,自律型プラットフォーム上でのロボット認識向上に重要な応用がある。
- 参考スコア(独自算出の注目度): 0.7285647284266376
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While computer vision has advanced considerably for general object detection and tracking, the specific problem of fast-moving tiny objects remains underexplored. This paper addresses the significant challenge of detecting and tracking rapidly moving small objects using an RGB-D camera. Our novel system combines deep learning-based detection with physics-based tracking to overcome the limitations of existing approaches. Our contributions include: (1) a comprehensive system design for object detection and tracking of fast-moving small objects in 3D space, (2) an innovative physics-based tracking algorithm that integrates kinematics motion equations to handle outliers and missed detections, and (3) an outlier detection and correction module that significantly improves tracking performance in challenging scenarios such as occlusions and rapid direction changes. We evaluated our proposed system on a custom racquetball dataset. Our evaluation shows our system surpassing kalman filter based trackers with up to 70\% less Average Displacement Error. Our system has significant applications for improving robot perception on autonomous platforms and demonstrates the effectiveness of combining physics-based models with deep learning approaches for real-time 3D detection and tracking of challenging small objects.
- Abstract(参考訳): コンピュータビジョンは、一般的な物体の検出と追跡のためにかなり進歩してきたが、高速で動く小さな物体の具体的な問題は、まだ未解明のままである。
本稿では,RGB-Dカメラを用いた高速移動小物体の検出と追跡に関する重要な課題について述べる。
我々の新しいシステムは、ディープラーニングに基づく検出と物理に基づくトラッキングを組み合わせることで、既存のアプローチの限界を克服する。
コントリビューションには,(1)3次元空間における高速移動小物体の物体検出と追跡のための包括的システム設計,(2)運動方程式を統合した物理に基づく追跡アルゴリズム,(3)オクルージョンや急激な方向変化などの困難なシナリオにおいて,トラッキング性能を著しく向上する外乱検出・修正モジュールなどが含まれている。
独自のラケットボールデータセットを用いて提案システムの評価を行った。
評価の結果,平均変位誤差を最大70 % 削減したカルマンフィルタトラッカーを網羅したシステムが得られた。
本システムは,自律型プラットフォーム上でのロボット認識向上のための重要な応用として,物理モデルと深層学習を併用して,課題となる小物体のリアルタイム3次元検出と追跡を行う方法の有効性を実証する。
関連論文リスト
- DINO-CoDT: Multi-class Collaborative Detection and Tracking with Vision Foundation Models [11.34839442803445]
道路利用者を対象とした多クラス協調検出・追跡フレームワークを提案する。
まず,大域的空間注意融合(GSAF)モジュールを用いた検出器を提案する。
次に,視覚基盤モデルを用いた視覚的セマンティクスを活用し,IDSW(ID SWitch)エラーを効果的に低減するトラックレットRe-IDentification(REID)モジュールを提案する。
論文 参考訳(メタデータ) (2025-06-09T02:49:10Z) - Street Gaussians without 3D Object Tracker [84.89933388445185]
既存のほとんどの方法は、オブジェクトポーズの労働集約的な手動ラベリングに依存している。
本研究では,3次元オブジェクト融合戦略における2次元ディープトラッカーの関連性を利用して,安定なオブジェクト追跡モジュールを提案する。
我々は、軌道誤差を自律的に補正し、見逃した検出を回復する暗黙の特徴空間に、モーションラーニング戦略を導入することで、避けられないトラッキングエラーに対処する。
論文 参考訳(メタデータ) (2024-12-07T05:49:42Z) - 3D Multi-Object Tracking with Semi-Supervised GRU-Kalman Filter [6.13623925528906]
3D Multi-Object Tracking (MOT)は、自律運転やロボットセンシングのようなインテリジェントなシステムに不可欠である。
本稿では,学習可能なカルマンフィルタを移動モジュールに導入するGRUベースのMOT法を提案する。
このアプローチは、データ駆動学習を通じてオブジェクトの動き特性を学習することができ、手動モデル設計やモデルエラーを回避することができる。
論文 参考訳(メタデータ) (2024-11-13T08:34:07Z) - ByteTrackV2: 2D and 3D Multi-Object Tracking by Associating Every
Detection Box [81.45219802386444]
マルチオブジェクトトラッキング(MOT)は、ビデオフレーム間のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
低スコア検出ボックス内の真のオブジェクトをマイニングするための階層型データアソシエーション戦略を提案する。
3次元のシナリオでは、トラッカーが世界座標の物体速度を予測するのがずっと簡単である。
論文 参考訳(メタデータ) (2023-03-27T15:35:21Z) - A Flexible-Frame-Rate Vision-Aided Inertial Object Tracking System for
Mobile Devices [3.4836209951879957]
本稿では,モバイルデバイス用フレキシブルフレームレートオブジェクトポーズ推定とトラッキングシステムを提案する。
高速トラッキングのためにクライアント側で慣性計測ユニット(IMU)ポーズ伝搬を行い、サーバ側でRGB画像ベースの3Dポーズ推定を行う。
我々のシステムは120FPSまでのフレキシブルフレームレートをサポートし、ローエンドデバイス上での高精度かつリアルタイムなトラッキングを保証する。
論文 参考訳(メタデータ) (2022-10-22T15:26:50Z) - Training-free Monocular 3D Event Detection System for Traffic
Surveillance [93.65240041833319]
既存のイベント検出システムは、主に学習ベースであり、大量のトレーニングデータが利用可能な場合、十分なパフォーマンスを実現している。
現実のシナリオでは、十分なラベル付きトレーニングデータの収集は高価であり、時には不可能である。
本稿では,交通監視のためのトレーニング不要な単眼3Dイベント検出システムを提案する。
論文 参考訳(メタデータ) (2020-02-01T04:42:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。