論文の概要: RelationTrack: Relation-aware Multiple Object Tracking with Decoupled
Representation
- arxiv url: http://arxiv.org/abs/2105.04322v1
- Date: Mon, 10 May 2021 13:00:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 14:50:28.288403
- Title: RelationTrack: Relation-aware Multiple Object Tracking with Decoupled
Representation
- Title(参考訳): RelationTrack: 疎結合表現を用いた関係認識型複数物体追跡
- Authors: En Yu, Zhuoling Li, Shoudong Han and Hongwei Wang
- Abstract要約: 既存のオンラインマルチオブジェクトトラッキング(MOT)アルゴリズムは、しばしば2つのサブタスク、検出および再識別(ReID)で構成されています。
推論速度を高め、複雑さを減らすために、現在のメソッドは一般的にこれらの二重サブタスクを統一されたフレームワークに統合します。
学習した表現を検出特異的およびReID固有の埋め込みに分離するGlobal Context Disentangling(GCD)というモジュールを考案した。
この制約を解決するために,トランスコーダの強力な推論能力と変形可能な注意を組み合わせることで,誘導トランス(gte)と呼ばれるモジュールを開発した。
- 参考スコア(独自算出の注目度): 3.356734463419838
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing online multiple object tracking (MOT) algorithms often consist of
two subtasks, detection and re-identification (ReID). In order to enhance the
inference speed and reduce the complexity, current methods commonly integrate
these double subtasks into a unified framework. Nevertheless, detection and
ReID demand diverse features. This issue would result in an optimization
contradiction during the training procedure. With the target of alleviating
this contradiction, we devise a module named Global Context Disentangling (GCD)
that decouples the learned representation into detection-specific and
ReID-specific embeddings. As such, this module provides an implicit manner to
balance the different requirements of these two subtasks. Moreover, we observe
that preceding MOT methods typically leverage local information to associate
the detected targets and neglect to consider the global semantic relation. To
resolve this restriction, we develop a module, referred to as Guided
Transformer Encoder (GTE), by combining the powerful reasoning ability of
Transformer encoder and deformable attention. Unlike previous works, GTE avoids
analyzing all the pixels and only attends to capture the relation between query
nodes and a few self-adaptively selected key samples. Therefore, it is
computationally efficient. Extensive experiments have been conducted on the
MOT16, MOT17 and MOT20 benchmarks to demonstrate the superiority of the
proposed MOT framework, namely RelationTrack. The experimental results indicate
that RelationTrack has surpassed preceding methods significantly and
established a new state-of-the-art performance, e.g., IDF1 of 70.5% and MOTA of
67.2% on MOT20.
- Abstract(参考訳): 既存のオンライン多重オブジェクト追跡(MOT)アルゴリズムは、しばしば2つのサブタスク、検出と再識別(ReID)から構成される。
推論速度を高め、複雑さを減らすため、現在の手法ではこれらの二重サブタスクを統一されたフレームワークに統合するのが一般的である。
それでも検出とReIDは多様な機能を必要とする。
この問題は、トレーニング手順中に最適化の矛盾をもたらす。
この矛盾を緩和する目的で、GCD(Global Context Disentangling)と呼ばれるモジュールを考案し、学習した表現を検出専用およびReID固有の埋め込みに分離する。
したがって、このモジュールは2つのサブタスクの異なる要求のバランスをとるために暗黙の方法を提供する。
さらに,従来のMOT手法では,検出対象を関連付けるためにローカル情報を利用するのが一般的であり,グローバルな意味的関係を考慮しない。
この制約を解決するために,トランスコーダの強力な推論能力と変形可能な注意を組み合わせることで,誘導トランスコーダ(gte)と呼ばれるモジュールを開発した。
以前の作業とは異なり、GTEはすべてのピクセルの分析を避け、クエリノードといくつかの自己適応的に選択されたキーサンプルの間の関係をキャプチャするためにのみ参加する。
そのため、計算効率が良い。
提案したMOTフレームワークであるRelationTrackの優位性を示すため、MOT16、MOT17、MOT20ベンチマークで大規模な実験が行われた。
実験の結果,リレーショナルトラックは先行手法を大幅に上回り,mot20ではidf1が70.5%,motaが67.2%という新たな最先端性能を確立した。
関連論文リスト
- Contrastive Learning for Multi-Object Tracking with Transformers [79.61791059432558]
我々は、DETRをインスタンスレベルのコントラスト損失を用いてMOTモデルに変換する方法を示す。
本手法では,検出能力を維持しながらオブジェクトの外観を学習し,オーバーヘッドを少なく抑える。
そのパフォーマンスは、BDD100Kデータセットにおいて、以前の最先端の+2.6 mMOTAを上回っている。
論文 参考訳(メタデータ) (2023-11-14T10:07:52Z) - Semi-DETR: Semi-Supervised Object Detection with Detection Transformers [105.45018934087076]
半教師付き物体検出(SSOD)におけるDETRに基づくフレームワークの解析
本報告では,第1次変圧器を用いたエンド・ツー・エンド半教師対象検出器であるSemi-DETRについて述べる。
我々の手法は、最先端の手法をクリアマージンで上回る。
論文 参考訳(メタデータ) (2023-07-16T16:32:14Z) - Single-Stage Visual Relationship Learning using Conditional Queries [60.90880759475021]
TraCQは、マルチタスク学習問題とエンティティペアの分布を回避する、シーングラフ生成の新しい定式化である。
我々は,DETRをベースとしたエンコーダ-デコーダ条件付きクエリを用いて,エンティティラベル空間を大幅に削減する。
実験結果から、TraCQは既存のシングルステージシーングラフ生成法よりも優れており、Visual Genomeデータセットの最先端の2段階メソッドを多く上回っていることがわかった。
論文 参考訳(メタデータ) (2023-06-09T06:02:01Z) - Bridging the Gap Between End-to-end and Non-End-to-end Multi-Object
Tracking [27.74953961900086]
既存のエンドツーエンドのマルチオブジェクト追跡(e2e-MOT)手法は、非エンドツーエンドのトラッキング・バイ・検出手法を超えていない。
本稿では,e2e-MOT をシャドウ概念を用いた新しいラベル割り当てにより,簡便かつ効果的な方法である Co-MOT を提案する。
論文 参考訳(メタデータ) (2023-05-22T05:18:34Z) - Transformer-based assignment decision network for multiple object
tracking [0.0]
本稿では,データアソシエーションに取り組むトランスフォーマーベースのアサインメント決定ネットワーク(TADN)について,推論中に明示的な最適化を必要とせずに紹介する。
提案手法は,トラッカーとしての単純な性質にもかかわらず,ほとんどの評価指標において最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2022-08-06T19:47:32Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Multi-object Tracking with a Hierarchical Single-branch Network [31.680667324595557]
階層的な単一ブランチネットワークに基づくオンライン多目的追跡フレームワークを提案する。
新たなiHOIM損失関数は,2つのサブタスクの目的を統一し,より優れた検出性能を実現する。
MOT16とMOT20データセットの実験結果から,最先端のトラッキング性能が達成できた。
論文 参考訳(メタデータ) (2021-01-06T12:14:58Z) - Rethinking the competition between detection and ReID in Multi-Object
Tracking [44.59367033562385]
検出と識別の埋め込みを共同で学習するワンショットモデルは、マルチオブジェクトトラッキング(MOT)において大きな注目を集めている。
本稿では,タスク依存表現をよりよく学習するために,自己関係と相互関係を持つ新しい相互ネットワーク(REN)を提案する。
また,ID埋め込みの関連性を改善するために,意味レベルのミスアライメントを防止するスケールアウェア・アテンション・ネットワーク(SAAN)を導入する。
論文 参考訳(メタデータ) (2020-10-23T02:44:59Z) - Joint Object Detection and Multi-Object Tracking with Graph Neural
Networks [32.1359455541169]
グラフニューラルネットワーク(GNN)に基づく共同MOT手法の新たな例を提案する。
我々は,GNNベースの共同MOT手法の有効性を示し,検出タスクとMOTタスクの両方に対して最先端の性能を示す。
論文 参考訳(メタデータ) (2020-06-23T17:07:00Z) - End-to-End Object Detection with Transformers [88.06357745922716]
本稿では,オブジェクト検出を直接セット予測問題とみなす新しい手法を提案する。
我々のアプローチは検出パイプラインを合理化し、手作業で設計された多くのコンポーネントの必要性を効果的に除去する。
この新しいフレームワークの主な構成要素は、Detection TRansformerまたはDETRと呼ばれ、セットベースのグローバルな損失である。
論文 参考訳(メタデータ) (2020-05-26T17:06:38Z) - EHSOD: CAM-Guided End-to-end Hybrid-Supervised Object Detection with
Cascade Refinement [53.69674636044927]
本稿では,エンド・ツー・エンドのハイブリッド型オブジェクト検出システムであるEHSODについて述べる。
完全なアノテートと弱いアノテートの両方で、ワンショットでトレーニングすることができる。
完全なアノテートされたデータの30%しか持たない複数のオブジェクト検出ベンチマークで、同等の結果が得られる。
論文 参考訳(メタデータ) (2020-02-18T08:04:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。