論文の概要: ReIDTrack: Multi-Object Track and Segmentation Without Motion
- arxiv url: http://arxiv.org/abs/2308.01622v1
- Date: Thu, 3 Aug 2023 08:53:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-04 14:35:47.760427
- Title: ReIDTrack: Multi-Object Track and Segmentation Without Motion
- Title(参考訳): ReIDTrack: モーションのないマルチオブジェクトトラックとセグメンテーション
- Authors: Kaer Huang, Bingchuan Sun, Feng Chen, Tao Zhang, Jun Xie, Jian Li,
Christopher Walter Twombly, Zhepeng Wang
- Abstract要約: 我々は,高速検出と外観モデルのみに基づいてSOTAを実現することができるか検討する。
CVPR2023 WADワークショップではMOTSトラックで1位を獲得し,MOTSトラックで2位となった。
- 参考スコア(独自算出の注目度): 18.892491706535793
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, dominant Multi-object tracking (MOT) and segmentation (MOTS)
methods mainly follow the tracking-by-detection paradigm. Transformer-based
end-to-end (E2E) solutions bring some ideas to MOT and MOTS, but they cannot
achieve a new state-of-the-art (SOTA) performance in major MOT and MOTS
benchmarks. Detection and association are two main modules of the
tracking-by-detection paradigm. Association techniques mainly depend on the
combination of motion and appearance information. As deep learning has been
recently developed, the performance of the detection and appearance model is
rapidly improved. These trends made us consider whether we can achieve SOTA
based on only high-performance detection and appearance model. Our paper mainly
focuses on exploring this direction based on CBNetV2 with Swin-B as a detection
model and MoCo-v2 as a self-supervised appearance model. Motion information and
IoU mapping were removed during the association. Our method wins 1st place on
the MOTS track and wins 2nd on the MOT track in the CVPR2023 WAD workshop. We
hope our simple and effective method can give some insights to the MOT and MOTS
research community. Source code will be released under this git repository
- Abstract(参考訳): 近年,マルチオブジェクトトラッキング(MOT)とセグメンテーション(MOTS)の手法は,主にトラッキング・バイ・検出のパラダイムに従っている。
トランスフォーマーベースのエンドツーエンド(E2E)ソリューションは、MOTとMOTSにいくつかのアイデアをもたらすが、主要なMOTとMOTSベンチマークで新しい最先端(SOTA)パフォーマンスを達成することはできない。
検出と関連付けは、トラッキングバイ検出パラダイムの主要な2つのモジュールである。
関連技術は主に動きと外観情報の組み合わせに依存している。
近年,ディープラーニングが開発され,検出・出現モデルの性能が急速に向上している。
これらの傾向は,高性能検出・外観モデルのみに基づいてSOTAを実現することができるかどうかを考察した。
本稿では主にCBNetV2に基づいて,Swin-Bを検出モデルとして,MoCo-v2を自己教師型外観モデルとして検討する。
運動情報とIoUマッピングは協会によって取り除かれた。
CVPR2023 WADワークショップではMOTSトラックで1位を獲得し,MOTトラックで2位となった。
我々は,本手法がMOTとMOTS研究コミュニティにいくつかの洞察を与えてくれることを願っている。
ソースコードは、このgitリポジトリでリリースされる
関連論文リスト
- MOTRv2: Bootstrapping End-to-End Multi-Object Tracking by Pretrained
Object Detectors [14.69168925956635]
MOTRv2は、事前訓練されたオブジェクト検出器でエンドツーエンドのマルチオブジェクト追跡をブートストラップするパイプラインである。
ダンストラックでは73.4% HOTAが第1位であり、グループ・ダンス・チャレンジでは第1位にランクインしている。
BDD100Kデータセットで最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2022-11-17T18:57:12Z) - SMILEtrack: SiMIlarity LEarning for Occlusion-Aware Multiple Object
Tracking [20.286114226299237]
本稿では,SLM(Siamese Network-based similarity Learning Module)を用いたオブジェクトトラッカーSMILEtrackを紹介する。
SLMは2つのオブジェクト間の外観類似性を計算し、分離検出および埋め込みモデルにおける特徴記述子の制限を克服する。
第2に、連続するビデオフレーム間の堅牢なオブジェクトマッチングのための新しいGATE関数を備えた類似マッチングカスケード(SMC)モジュールを開発する。
論文 参考訳(メタデータ) (2022-11-16T10:49:48Z) - SSMTL++: Revisiting Self-Supervised Multi-Task Learning for Video
Anomaly Detection [108.57862846523858]
自己教師型マルチタスク学習フレームワークを再考し、元の手法にいくつかのアップデートを提案する。
マルチヘッド・セルフアテンション・モジュールを導入することで3次元畳み込みバックボーンを近代化する。
モデルをさらに改良するために,セグメントマップの予測などの自己指導型学習タスクについて検討した。
論文 参考訳(メタデータ) (2022-07-16T19:25:41Z) - Simple Cues Lead to a Strong Multi-Object Tracker [3.7189423451031356]
マルチオブジェクト追跡のための新しいタイプのトラッキング・バイ・ディテクト(TbD)を提案する。
単純な動作モデルと外観特徴を組み合わせることで,強い追跡結果が得られることを示す。
私たちのトラッカーは、MOT17、MOT20、BDD100k、DanceTrackの4つの公開データセットに一般化され、最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2022-06-09T17:55:51Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Online Multiple Object Tracking with Cross-Task Synergy [120.70085565030628]
位置予測と埋め込み結合の相乗効果を考慮した新しい統一モデルを提案する。
この2つのタスクは、時間認識対象の注意と注意の注意、およびアイデンティティ認識メモリ集約モデルによってリンクされる。
論文 参考訳(メタデータ) (2021-04-01T10:19:40Z) - MOTChallenge: A Benchmark for Single-Camera Multiple Target Tracking [72.76685780516371]
単カメラ多目的追跡(MOT)のためのベンチマークMOTChallengeを提案する。
このベンチマークは、歩行者がトラッキングコミュニティで最も研究されているオブジェクトであるため、複数の人を追跡することに重点を置いている。
我々は,最先端トラッカーの分類と広い誤差解析を行う。
論文 参考訳(メタデータ) (2020-10-15T06:52:16Z) - Simultaneous Detection and Tracking with Motion Modelling for Multiple
Object Tracking [94.24393546459424]
本稿では,複数の物体の運動パラメータを推定し,共同検出と関連付けを行うディープ・モーション・モデリング・ネットワーク(DMM-Net)を提案する。
DMM-Netは、人気の高いUA-DETRACチャレンジで12.80 @120+ fpsのPR-MOTAスコアを達成した。
また,車両追跡のための大規模な公開データセットOmni-MOTを合成し,精密な接地トルースアノテーションを提供する。
論文 参考訳(メタデータ) (2020-08-20T08:05:33Z) - Dense Scene Multiple Object Tracking with Box-Plane Matching [73.54369833671772]
マルチオブジェクトトラッキング(MOT)はコンピュータビジョンにおいて重要なタスクである。
密集したシーンにおけるMOT性能を改善するために,Box-Plane Matching (BPM)法を提案する。
3つのモジュールの有効性により、ACM MM Grand Challenge HiEve 2020において、私たちのチームはトラック1のリーダーボードで1位を獲得しました。
論文 参考訳(メタデータ) (2020-07-30T16:39:22Z) - Joint Object Detection and Multi-Object Tracking with Graph Neural
Networks [32.1359455541169]
グラフニューラルネットワーク(GNN)に基づく共同MOT手法の新たな例を提案する。
我々は,GNNベースの共同MOT手法の有効性を示し,検出タスクとMOTタスクの両方に対して最先端の性能を示す。
論文 参考訳(メタデータ) (2020-06-23T17:07:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。