論文の概要: Motion State: A New Benchmark Multiple Object Tracking
- arxiv url: http://arxiv.org/abs/2312.17641v2
- Date: Tue, 7 May 2024 13:42:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 19:44:23.446527
- Title: Motion State: A New Benchmark Multiple Object Tracking
- Title(参考訳): Motion State: ベンチマークによる新しいオブジェクト追跡
- Authors: Yang Feng, Liao Pan, Wu Di, Liu Bo, Zhang Xingle,
- Abstract要約: モデルデータ駆動型運動状態判断オブジェクト追跡法(MoD2T)を提案する。
MoD2Tは、ディープラーニングベースの多目的追跡フレームワークを用いた伝統的な数学的モデリングを取り入れている。
様々なシナリオでMoD2Tの有効性を総合的に検証した。
- 参考スコア(独自算出の注目度): 10.819349280398363
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the realm of video analysis, the field of multiple object tracking (MOT) assumes paramount importance, with the motion state of objects-whether static or dynamic relative to the ground-holding practical significance across diverse scenarios. However, the extant literature exhibits a notable dearth in the exploration of this aspect. Deep learning methodologies encounter challenges in accurately discerning object motion states, while conventional approaches reliant on comprehensive mathematical modeling may yield suboptimal tracking accuracy. To address these challenges, we introduce a Model-Data-Driven Motion State Judgment Object Tracking Method (MoD2T). This innovative architecture adeptly amalgamates traditional mathematical modeling with deep learning-based multi-object tracking frameworks. The integration of mathematical modeling and deep learning within MoD2T enhances the precision of object motion state determination, thereby elevating tracking accuracy. Our empirical investigations comprehensively validate the efficacy of MoD2T across varied scenarios, encompassing unmanned aerial vehicle surveillance and street-level tracking. Furthermore, to gauge the method's adeptness in discerning object motion states, we introduce the Motion State Validation F1 (MVF1) metric. This novel performance metric aims to quantitatively assess the accuracy of motion state classification, furnishing a comprehensive evaluation of MoD2T's performance. Elaborate experimental validations corroborate the rationality of MVF1. In order to holistically appraise MoD2T's performance, we meticulously annotate several renowned datasets and subject MoD2T to stringent testing. Remarkably, under conditions characterized by minimal or moderate camera motion, the achieved MVF1 values are particularly noteworthy, with exemplars including 0.774 for the KITTI dataset, 0.521 for MOT17, and 0.827 for UAVDT.
- Abstract(参考訳): ビデオ解析の領域では、複数物体追跡(MOT)の分野は、様々なシナリオにおいて、オブジェクトの運動状態(静的か動的かのどちらか)が重要視される。
しかし、現存する文献は、この側面の探検において顕著な足跡を示している。
深層学習手法は、物体の運動状態を正確に識別する上で困難に直面するが、従来の手法は包括的数学的モデリングに依存しているため、準最適追跡精度が得られる。
これらの課題に対処するために,モデルデータ駆動型動作状態判断法(MoD2T)を提案する。
この革新的なアーキテクチャは、深層学習に基づく多対象追跡フレームワークによる伝統的な数学的モデリングとほぼ一致している。
MoD2Tにおける数学的モデリングとディープラーニングの統合により、物体の動き状態決定の精度が向上し、トラッキング精度が向上する。
我々の実証研究は、無人航空機の監視と道路レベルの追跡を含む様々なシナリオにおけるMoD2Tの有効性を包括的に検証している。
さらに、物体の運動状態を識別する際の手法の精度を評価するために、動作状態検証F1(MVF1)指標を導入する。
動作状態分類の精度を定量的に評価し,MoD2Tの性能を総合的に評価することを目的とする。
実験による検証はMVF1の合理性を裏付ける。
MoD2Tの性能を評価するために、いくつかの有名なデータセットを注意深く注釈付けし、MoD2Tを厳密なテストに対象とします。
注目すべきは、最小または中程度のカメラモーションで特徴づけられる条件下では、達成されたMVF1値は特に注目すべきであり、例としては、KITTIデータセットの0.774、MOT17の0.521、UAVDTの0.827が含まれる。
関連論文リスト
- 3D Multi-Object Tracking with Semi-Supervised GRU-Kalman Filter [6.13623925528906]
3D Multi-Object Tracking (MOT)は、自律運転やロボットセンシングのようなインテリジェントなシステムに不可欠である。
本稿では,学習可能なカルマンフィルタを移動モジュールに導入するGRUベースのMOT法を提案する。
このアプローチは、データ駆動学習を通じてオブジェクトの動き特性を学習することができ、手動モデル設計やモデルエラーを回避することができる。
論文 参考訳(メタデータ) (2024-11-13T08:34:07Z) - DO3D: Self-supervised Learning of Decomposed Object-aware 3D Motion and
Depth from Monocular Videos [76.01906393673897]
本研究では,モノクラービデオから3次元運動と深度を協調的に学習する自己教師手法を提案する。
本システムでは,深度を推定する深度推定モジュールと,エゴモーションと3次元物体の動きを推定する新しい分解対象3次元運動推定モジュールを備える。
我々のモデルは評価されたすべての設定において優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-03-09T12:22:46Z) - UniQuadric: A SLAM Backend for Unknown Rigid Object 3D Tracking and
Light-Weight Modeling [7.626461564400769]
本稿では,エゴモーショントラッキング,剛体オブジェクトモーショントラッキング,モデリングを統一するSLAMバックエンドを提案する。
本システムは,複雑な動的シーンにおける物体知覚の潜在的な応用を実証する。
論文 参考訳(メタデータ) (2023-09-29T07:50:09Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - RLM-Tracking: Online Multi-Pedestrian Tracking Supported by Relative
Location Mapping [5.9669075749248774]
マルチオブジェクトトラッキングの問題は、公安、輸送、自動運転車、ロボティクス、人工知能を含む他の領域で広く利用されている、基本的なコンピュータビジョン研究の焦点である。
本稿では、オブジェクト textbfRelative Location Mapping (RLM) モデルと textbfTarget Region Density (TRD) モデルを含む、上記の問題に対する新しいマルチオブジェクトトラッカーを設計する。
新しいトラッカーは、オブジェクト間の位置関係の違いに敏感である。
物体の密度に応じてリアルタイムで異なる領域に低スコア検出フレームを導入することができる
論文 参考訳(メタデータ) (2022-10-19T11:37:14Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - Can Deep Learning be Applied to Model-Based Multi-Object Tracking? [25.464269324261636]
マルチオブジェクトトラッキング(MOT)は、ノイズ測定を用いて未知の、時間変化のあるオブジェクトの状態をトラッキングする問題である。
ディープラーニング(DL)は、トラッキングパフォーマンスを改善するために、MOTでますます使われている。
本稿では,TransformerベースのDLトラッカーを提案し,その性能をモデルベースで評価する。
論文 参考訳(メタデータ) (2022-02-16T07:43:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。