論文の概要: AttMOT: Improving Multiple-Object Tracking by Introducing Auxiliary
Pedestrian Attributes
- arxiv url: http://arxiv.org/abs/2308.07537v1
- Date: Tue, 15 Aug 2023 02:39:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-16 14:23:23.780409
- Title: AttMOT: Improving Multiple-Object Tracking by Introducing Auxiliary
Pedestrian Attributes
- Title(参考訳): AttMOT:補助歩行者属性の導入による多目的追跡の改善
- Authors: Yunhao Li, Zhen Xiao, Lin Yang, Dan Meng, Xin Zhou, Heng Fan, Libo
Zhang
- Abstract要約: 本稿では,一般的なRe-ID埋め込みを支援するために,歩行者属性を簡易かつ効果的かつ汎用的に予測する手法を提案する。
歩行者追跡のための大規模で高度にリッチな合成データセットであるAttMOTを紹介した。
次に、注意機構を含む、Re-ID埋め込みと歩行者属性を融合するさまざまなアプローチについて検討する。
- 参考スコア(独自算出の注目度): 33.25021763110573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-object tracking (MOT) is a fundamental problem in computer vision with
numerous applications, such as intelligent surveillance and automated driving.
Despite the significant progress made in MOT, pedestrian attributes, such as
gender, hairstyle, body shape, and clothing features, which contain rich and
high-level information, have been less explored. To address this gap, we
propose a simple, effective, and generic method to predict pedestrian
attributes to support general Re-ID embedding. We first introduce AttMOT, a
large, highly enriched synthetic dataset for pedestrian tracking, containing
over 80k frames and 6 million pedestrian IDs with different time, weather
conditions, and scenarios. To the best of our knowledge, AttMOT is the first
MOT dataset with semantic attributes. Subsequently, we explore different
approaches to fuse Re-ID embedding and pedestrian attributes, including
attention mechanisms, which we hope will stimulate the development of
attribute-assisted MOT. The proposed method AAM demonstrates its effectiveness
and generality on several representative pedestrian multi-object tracking
benchmarks, including MOT17 and MOT20, through experiments on the AttMOT
dataset. When applied to state-of-the-art trackers, AAM achieves consistent
improvements in MOTA, HOTA, AssA, IDs, and IDF1 scores. For instance, on MOT17,
the proposed method yields a +1.1 MOTA, +1.7 HOTA, and +1.8 IDF1 improvement
when used with FairMOT. To encourage further research on attribute-assisted
MOT, we will release the AttMOT dataset.
- Abstract(参考訳): マルチオブジェクトトラッキング(MOT)は、インテリジェントな監視や自動運転など、多数のアプリケーションを用いたコンピュータビジョンにおける基本的な問題である。
MOTでは大きな進歩があったが、性別、髪型、体型、衣服の特徴など、豊かで高レベルな情報を含む歩行者の属性は調査されていない。
このギャップに対処するため,一般的なRe-ID埋め込みを支援するために,歩行者属性を簡易かつ効果的かつ汎用的に予測する手法を提案する。
AttMOTは、80万フレーム以上の歩行者IDと、異なる時間、気象条件、シナリオを含む、歩行者追跡のための大規模で高度に濃縮された合成データセットである。
私たちの知る限りでは、AttMOTはセマンティック属性を持つ最初のMOTデータセットです。
次に,アテンション機構を含む,リid埋め込みと歩行者属性を融合するアプローチについて検討し,属性支援motの開発を促進することを期待する。
提案手法は、AttMOTデータセットを用いて、MOT17やMOT20を含む複数の代表的な歩行者多目的追跡ベンチマークの有効性と一般性を示す。
最先端トラッカーに適用すると、MOTA、HOTA、AssA、ID、IFF1スコアの一貫性のある改善が達成される。
例えば、MOT17では、FairMOTを使用すると+1.1 MOTA、+1.7 HOTA、+1.8 IDF1の改善が得られる。
属性支援MOTに関するさらなる研究を促進するため、AttMOTデータセットをリリースする。
関連論文リスト
- Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking [52.04679257903805]
共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-19T07:48:45Z) - SOOD++: Leveraging Unlabeled Data to Boost Oriented Object Detection [59.868772767818975]
本稿では,SOOD++ と呼ばれる簡易かつ効果的な半教師付きオブジェクト指向検出手法を提案する。
具体的には、空中画像からの物体は、通常任意の向き、小さなスケール、集約である。
様々なラベル付き環境下での多目的オブジェクトデータセットに対する大規模な実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-07-01T07:03:51Z) - UTOPIA: Unconstrained Tracking Objects without Preliminary Examination
via Cross-Domain Adaptation [26.293108793029297]
多重オブジェクト追跡(MOT)は、連続したビデオフレーム内で対象オブジェクトのバウンディングボックスとIDを見つけることを目的としている。
完全に教師されたMOTメソッドは、既存のデータセットで高い精度を達成したが、新たに取得したデータセットや新しい未知のドメインではうまく一般化できない。
本稿では、まず、ドメイン間の観点からMOT問題に対処し、実際に新しいデータ取得のプロセスを模倣する。
既存のデータセットからの新たなクロスドメインMOT適応は、オブジェクトの理解とモデリングに関する人間の知識を事前に定義せずに提案されている。
論文 参考訳(メタデータ) (2023-06-16T04:06:15Z) - Rt-Track: Robust Tricks for Multi-Pedestrian Tracking [4.271127739716044]
動き情報のモデリングを改善するために,スムーズな軌道予測(STP-DC)のための新しい方向整合性手法を提案する。
また、外観モデルのモデリングを強化するために、HG-FEN(Hyper-grain Feature Embedding Network)を提案する。
そこで我々は,MOTにおける最先端性能を実現するため,Rtトラックと呼ばれるロバストトラッカーを提案し,様々なトリックとテクニックを取り入れた。
論文 参考訳(メタデータ) (2023-03-16T22:08:29Z) - Multi-Stage Based Feature Fusion of Multi-Modal Data for Human Activity
Recognition [6.0306313759213275]
本稿では,RGBビデオとIMUセンサの機能を効果的に組み合わせたマルチモーダルフレームワークを提案する。
最初の段階では,各入力エンコーダが特徴を効果的に抽出することを学ぶ。
ビデオのみに比べて22%,11%,MMActデータセットでは20%,12%の大幅な改善が見られた。
論文 参考訳(メタデータ) (2022-11-08T15:48:44Z) - SOMPT22: A Surveillance Oriented Multi-Pedestrian Tracking Dataset [5.962184741057505]
我々はSOMPT22データセットを紹介した。これは、都市監視のための高さ6-8mのポール上の静止カメラから撮影した注釈付きショートビデオを備えた、複数人の追跡のための新しいセットである。
我々は,新しいデータセット上での検出とreIDネットワークの利用方法について,MOTトラッカーをワンショットと2ステージに分類して分析する。
我々の新しいデータセットの実験結果から、SOTAは依然として高効率には程遠いことが示され、シングルショットトラッカーは高速実行と精度を競合性能と一体化するための良い候補である。
論文 参考訳(メタデータ) (2022-08-04T11:09:19Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - MOTChallenge: A Benchmark for Single-Camera Multiple Target Tracking [72.76685780516371]
単カメラ多目的追跡(MOT)のためのベンチマークMOTChallengeを提案する。
このベンチマークは、歩行者がトラッキングコミュニティで最も研究されているオブジェクトであるため、複数の人を追跡することに重点を置いている。
我々は,最先端トラッカーの分類と広い誤差解析を行う。
論文 参考訳(メタデータ) (2020-10-15T06:52:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。