論文の概要: MoD2T:Model-Data-Driven Motion-Static Object Tracking Method
- arxiv url: http://arxiv.org/abs/2312.17641v1
- Date: Fri, 29 Dec 2023 15:08:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-02 09:18:29.509744
- Title: MoD2T:Model-Data-Driven Motion-Static Object Tracking Method
- Title(参考訳): mod2t:モデルデータ駆動運動静物追跡法
- Authors: Yang Feng, Liao Pan, Wu Di, Liu Bo, Zhang Xingle
- Abstract要約: モデルデータ駆動型運動統計オブジェクト追跡法(MoD2T)について紹介する。
MoD2Tは、ディープラーニングベースのMOTフレームワークによる伝統的な数学的モデリングとほぼ一致している。
我々の実証実験は、UAV空中監視や街路レベルの追跡など、様々なシナリオでMoD2Tの有効性を実証している。
- 参考スコア(独自算出の注目度): 11.607495101616353
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The domain of Multi-Object Tracking (MOT) is of paramount significance within
the realm of video analysis. However, both traditional methodologies and deep
learning-based approaches within this domain exhibit inherent limitations. Deep
learning methods driven exclusively by data exhibit challenges in accurately
discerning the motion states of objects, while traditional methods relying on
comprehensive mathematical models may suffer from suboptimal tracking
precision. To address these challenges, we introduce the Model-Data-Driven
Motion-Static Object Tracking Method (MoD2T). We propose a novel architecture
that adeptly amalgamates traditional mathematical modeling with deep
learning-based MOT frameworks, thereby effectively mitigating the limitations
associated with sole reliance on established methodologies or advanced deep
learning techniques. MoD2T's fusion of mathematical modeling and deep learning
augments the precision of object motion determination, consequently enhancing
tracking accuracy. Our empirical experiments robustly substantiate MoD2T's
efficacy across a diverse array of scenarios, including UAV aerial surveillance
and street-level tracking. To assess MoD2T's proficiency in discerning object
motion states, we introduce MVF1 metric. This novel performance metric is
designed to measure the accuracy of motion state classification, providing a
comprehensive evaluation of MoD2T's performance. Meticulous experiments
substantiate the rationale behind MVF1's formulation. To provide a
comprehensive assessment of MoD2T's performance, we meticulously annotate
diverse datasets and subject MoD2T to rigorous testing. The achieved MVF1
scores, which measure the accuracy of motion state classification, are
particularly noteworthy in scenarios marked by minimal or mild camera motion,
with values of 0.774 on the KITTI dataset, 0.521 on MOT17, and 0.827 on UAVDT.
- Abstract(参考訳): マルチオブジェクト追跡(MOT)の領域は、ビデオ分析の領域において最重要事項である。
しかし、この領域における伝統的な方法論と深層学習に基づくアプローチは、固有の限界を示す。
データによってのみ駆動される深層学習法は、対象の運動状態を正確に識別するのは難しいが、包括的数学的モデルに依存する従来の手法は、最適化された追跡精度に苦しむ可能性がある。
これらの課題に対処するために、モデルデータ駆動のモーションスタティックオブジェクトトラッキング(mod2t)を導入する。
本稿では,従来の数学モデルとディープラーニングに基づくmotフレームワークをうまく融合させ,確立された方法論や高度なディープラーニング技術にのみ依存する制約を効果的に緩和する新しいアーキテクチャを提案する。
MoD2Tの数学的モデリングとディープラーニングの融合により、物体の動き決定の精度が向上し、追跡精度が向上する。
我々の実証実験は、UAVの空中監視や街路レベルの追跡など、様々なシナリオでMoD2Tの有効性をしっかりと裏付けている。
物体運動状態の判別におけるMoD2Tの習熟度を評価するため,MVF1測定基準を導入する。
この新しい性能指標は動作状態の分類の精度を計測するために設計され、mod2tの性能の包括的な評価を提供する。
微妙な実験はMVF1の定式化の背後にある理論的根拠を裏付ける。
MoD2Tの性能を総合的に評価するために、さまざまなデータセットを慎重に注釈付けし、厳密なテストを行う。
達成されたmvf1スコアは、動作状態の分類の精度を計測するが、キッティデータセットの0.774、mot17の0.521、uavdtの0.827という最小または軽度なカメラの動作で特に注目される。
関連論文リスト
- 3D Multi-Object Tracking with Semi-Supervised GRU-Kalman Filter [6.13623925528906]
3D Multi-Object Tracking (MOT)は、自律運転やロボットセンシングのようなインテリジェントなシステムに不可欠である。
本稿では,学習可能なカルマンフィルタを移動モジュールに導入するGRUベースのMOT法を提案する。
このアプローチは、データ駆動学習を通じてオブジェクトの動き特性を学習することができ、手動モデル設計やモデルエラーを回避することができる。
論文 参考訳(メタデータ) (2024-11-13T08:34:07Z) - DO3D: Self-supervised Learning of Decomposed Object-aware 3D Motion and
Depth from Monocular Videos [76.01906393673897]
本研究では,モノクラービデオから3次元運動と深度を協調的に学習する自己教師手法を提案する。
本システムでは,深度を推定する深度推定モジュールと,エゴモーションと3次元物体の動きを推定する新しい分解対象3次元運動推定モジュールを備える。
我々のモデルは評価されたすべての設定において優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-03-09T12:22:46Z) - UniQuadric: A SLAM Backend for Unknown Rigid Object 3D Tracking and
Light-Weight Modeling [7.626461564400769]
本稿では,エゴモーショントラッキング,剛体オブジェクトモーショントラッキング,モデリングを統一するSLAMバックエンドを提案する。
本システムは,複雑な動的シーンにおける物体知覚の潜在的な応用を実証する。
論文 参考訳(メタデータ) (2023-09-29T07:50:09Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - RLM-Tracking: Online Multi-Pedestrian Tracking Supported by Relative
Location Mapping [5.9669075749248774]
マルチオブジェクトトラッキングの問題は、公安、輸送、自動運転車、ロボティクス、人工知能を含む他の領域で広く利用されている、基本的なコンピュータビジョン研究の焦点である。
本稿では、オブジェクト textbfRelative Location Mapping (RLM) モデルと textbfTarget Region Density (TRD) モデルを含む、上記の問題に対する新しいマルチオブジェクトトラッカーを設計する。
新しいトラッカーは、オブジェクト間の位置関係の違いに敏感である。
物体の密度に応じてリアルタイムで異なる領域に低スコア検出フレームを導入することができる
論文 参考訳(メタデータ) (2022-10-19T11:37:14Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - Can Deep Learning be Applied to Model-Based Multi-Object Tracking? [25.464269324261636]
マルチオブジェクトトラッキング(MOT)は、ノイズ測定を用いて未知の、時間変化のあるオブジェクトの状態をトラッキングする問題である。
ディープラーニング(DL)は、トラッキングパフォーマンスを改善するために、MOTでますます使われている。
本稿では,TransformerベースのDLトラッカーを提案し,その性能をモデルベースで評価する。
論文 参考訳(メタデータ) (2022-02-16T07:43:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。