論文の概要: MOT\_FCG++: Enhanced Representation of Motion and Appearance Features
- arxiv url: http://arxiv.org/abs/2411.10028v1
- Date: Fri, 15 Nov 2024 08:17:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-18 15:39:15.996610
- Title: MOT\_FCG++: Enhanced Representation of Motion and Appearance Features
- Title(参考訳): MOT\_FCG++: 動きと外観の表現の強化
- Authors: Yanzhao Fang,
- Abstract要約: クラスタリングアソシエーション法MOT_FCGを改良した外観・空間特徴表現のための新しい手法を提案する。
空間運動の特徴として,物体の位置と形状の関係をより正確に表現した対角変調GIoUを提案する。
外観特徴に対して、信頼情報を含む動的外観表現を用い、軌道の外観特徴をより堅牢でグローバルにすることができる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The goal of multi-object tracking (MOT) is to detect and track all objects in a scene across frames, while maintaining a unique identity for each object. Most existing methods rely on the spatial motion features and appearance embedding features of the detected objects in consecutive frames. Effectively and robustly representing the spatial and appearance features of long trajectories has become a critical factor affecting the performance of MOT. We propose a novel approach for appearance and spatial feature representation, improving upon the clustering association method MOT\_FCG. For spatial motion features, we propose Diagonal Modulated GIoU, which more accurately represents the relationship between the position and shape of the objects. For appearance features, we utilize a dynamic appearance representation that incorporates confidence information, enabling the trajectory appearance features to be more robust and global. Based on the baseline model MOT\_FCG, we achieved 76.1 HOTA, 80.4 MOTA and 81.3 IDF1 on the MOT17 validation set, and also achieved competitive performance on the MOT20 and DanceTrack validation sets.
- Abstract(参考訳): マルチオブジェクト追跡(MOT)の目標は、各オブジェクトのユニークなアイデンティティを維持しながら、フレーム間のシーン内のすべてのオブジェクトを検出し、追跡することである。
既存の手法のほとんどは、連続したフレーム内で検出された物体の空間的動きの特徴と外観的埋め込みの特徴に依存している。
長軌跡の空間的特徴と外観的特徴を効果的かつ頑健に表現することは,MOTの性能に重要な要因となっている。
本稿では, クラスタリングアソシエーション法MOT\_FCGを改良した, 外観と空間的特徴表現のための新しい手法を提案する。
空間運動の特徴として,物体の位置と形状の関係をより正確に表現した対角変調GIoUを提案する。
外観特徴に対して、信頼情報を含む動的外観表現を用い、軌道の外観特徴をより堅牢でグローバルにすることができる。
ベースラインモデルMOT\_FCGに基づいて、MOT17検証セットで76.1HOTA、80.4MOTA、81.3IDF1を達成し、MOT20およびDanceTrack検証セットで競合性能を達成した。
関連論文リスト
- Event-Based Tracking Any Point with Motion-Augmented Temporal Consistency [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
出来事の空間的空間性や動きの感度によって引き起こされる課題に対処する。
競合モデルパラメータによる処理を150%高速化する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - STCMOT: Spatio-Temporal Cohesion Learning for UAV-Based Multiple Object Tracking [13.269416985959404]
無人航空機(UAV)ビデオにおける複数物体追跡(MOT)は、コンピュータビジョンにおける多様な用途において重要である。
時空間結合型多目的追跡フレームワーク(STCMOT)を提案する。
歴史的埋め込み機能を用いて,ReIDの表現と検出機能を逐次的にモデル化する。
我々のフレームワークはMOTAとIDF1メトリクスで新しい最先端のパフォーマンスを設定します。
論文 参考訳(メタデータ) (2024-09-17T14:34:18Z) - Future Does Matter: Boosting 3D Object Detection with Temporal Motion Estimation in Point Cloud Sequences [25.74000325019015]
クロスフレーム動作予測情報を用いた時空間特徴学習を容易にするために,新しいLiDAR 3Dオブジェクト検出フレームワークLiSTMを導入する。
我々は,本フレームワークが優れた3次元検出性能を実現することを示すため,アグリゲーションとnuScenesデータセットの実験を行った。
論文 参考訳(メタデータ) (2024-09-06T16:29:04Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Rt-Track: Robust Tricks for Multi-Pedestrian Tracking [4.271127739716044]
動き情報のモデリングを改善するために,スムーズな軌道予測(STP-DC)のための新しい方向整合性手法を提案する。
また、外観モデルのモデリングを強化するために、HG-FEN(Hyper-grain Feature Embedding Network)を提案する。
そこで我々は,MOTにおける最先端性能を実現するため,Rtトラックと呼ばれるロバストトラッカーを提案し,様々なトリックとテクニックを取り入れた。
論文 参考訳(メタデータ) (2023-03-16T22:08:29Z) - Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - A Spatio-Temporal Multilayer Perceptron for Gesture Recognition [70.34489104710366]
自律走行車におけるジェスチャー認識のための多層状態重み付きパーセプトロンを提案する。
提案手法の有望な性能を示すため,TCGおよびDrive&Actデータセットの評価を行った。
私たちは、そのリアルタイム能力と安定した実行を示すために、モデルを自動運転車にデプロイします。
論文 参考訳(メタデータ) (2022-04-25T08:42:47Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。