論文の概要: The 1st-place Solution for ECCV 2022 Multiple People Tracking in Group
Dance Challenge
- arxiv url: http://arxiv.org/abs/2210.15281v1
- Date: Thu, 27 Oct 2022 09:28:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 14:30:23.502418
- Title: The 1st-place Solution for ECCV 2022 Multiple People Tracking in Group
Dance Challenge
- Title(参考訳): グループダンスチャレンジにおけるECCV 2022多人数追跡のための第1位ソリューション
- Authors: Yuang Zhang and Tiancai Wang and Weiyao Lin and Xiangyu Zhang
- Abstract要約: グループダンス多人数追跡チャレンジの1位となるソリューションを提示する。
MOTR: End-to-End Multiple-Object Tracking with Transformerをベースとして、1)クエリをアンカーとして検出し、2)クエリをデノイングとして追跡し、3)CrowdHumanデータセットから生成された擬似ビデオクリップを共同でトレーニングする。
本研究では,DanceTrackテストセット上で73.4%のHOTAを達成し,第2位のソリューションを+6.8%のHOTAで上回った。
- 参考スコア(独自算出の注目度): 28.79662033029203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present our 1st place solution to the Group Dance Multiple People Tracking
Challenge. Based on MOTR: End-to-End Multiple-Object Tracking with Transformer,
we explore: 1) detect queries as anchors, 2) tracking as query denoising, 3)
joint training on pseudo video clips generated from CrowdHuman dataset, and 4)
using the YOLOX detection proposals for the anchor initialization of detect
queries. Our method achieves 73.4% HOTA on the DanceTrack test set, surpassing
the second-place solution by +6.8% HOTA.
- Abstract(参考訳): グループダンス多人数追跡チャレンジの1位となるソリューションを提示する。
MOTR: Transformer を用いたエンドツーエンド多目的追跡, 探索
1)クエリをアンカーとして検出する。
2) 照会としての追跡
3)CrowdHumanデータセットから生成された擬似ビデオクリップと共同トレーニング
4) 検出クエリのアンカー初期化にYOLOX検出提案を用いた。
本研究では,DanceTrack テストセット上で73.4% HOTAを達成し,第2位を+6.8% HOTA で上回った。
関連論文リスト
- Multi-object Tracking by Detection and Query: an efficient end-to-end manner [23.926668750263488]
従来の検出によるトラッキングと、クエリによる新たなトラッキングだ。
本稿では,学習可能なアソシエータによって達成されるトラッキング・バイ・検出・クエリーのパラダイムを提案する。
トラッキング・バイ・クエリーモデルと比較すると、LAIDは特に訓練効率の高い競合追跡精度を達成している。
論文 参考訳(メタデータ) (2024-11-09T14:38:08Z) - 1st Place Solution for MeViS Track in CVPR 2024 PVUW Workshop: Motion Expression guided Video Segmentation [81.50620771207329]
ビデオオブジェクトセグメンテーション(RVOS)における静的支配データとフレームサンプリングの有効性について検討する。
本手法は,競技段階でのJ&Fスコア0.5447を達成し,PVUWチャレンジのMeViSトラックで1位となった。
論文 参考訳(メタデータ) (2024-06-11T08:05:26Z) - Solution for Point Tracking Task of ICCV 1st Perception Test Challenge 2023 [50.910598799408326]
Tracking Any Point (TAP) タスクは、ビデオを通じて任意の物理的表面を追跡する。
既存のいくつかのアプローチは、スムーズな運動軌跡を得るための時間的関係を考慮し、TAPを探索してきた。
我々は,静的カメラが撮影したビデオの静的点追跡の修正に焦点を当てた,信頼度の高い静的点付きTAP(TAPIR+)を提案する。
論文 参考訳(メタデータ) (2024-03-26T13:50:39Z) - Multiple Object Tracking Challenge Technical Report for Team MT_IoT [41.88133094982688]
我々はMOTタスクを、人間の検出と軌道マッチングを含む2段階のタスクとして扱う。
具体的には、改良された人体検知器を設計し、運動軌跡の整合性を保証するため、ほとんどの検出を関連づけた。
そこで本手法では,DanceTrackチャレンジデータセット上で66.672 HOTAと93.971 MOTAを達成した。
論文 参考訳(メタデータ) (2022-12-07T12:00:51Z) - The Second-place Solution for ECCV 2022 Multiple People Tracking in
Group Dance Challenge [6.388173902438571]
主に2つのステップを含む。Cascaded Buffer-IoU(C-BIoU)トラッカーを用いたオンライン短期追跡、外観特徴と階層的クラスタリングを用いたオフライン長期追跡。
我々のC-BIoUトラッカーはバッファを追加し、検出とトラックのマッチング空間を拡張します。
オンライントラッキングにC-BIoUを使用した後、ReMOTSが導入したオフラインリファインメントを適用した。
論文 参考訳(メタデータ) (2022-11-24T10:04:09Z) - 1st Place Solutions for the UVO Challenge 2022 [26.625850534861414]
この手法は、2nd Unidentified Video Objects (UVO) チャレンジで第1位となり、制限されたデータフレームトラックでそれぞれ46.8、64.7、32.2のAR@100、無制限のデータフレームトラックとビデオトラックを達成した。
論文 参考訳(メタデータ) (2022-10-18T06:54:37Z) - D$^{\bf{3}}$: Duplicate Detection Decontaminator for Multi-Athlete
Tracking in Sports Videos [44.027619577289144]
重複検出は、1フレーム内の複数の検出ボックスによって、同一選手の閉塞誤報として、新しく正確に定義される。
この問題に対処するために、トレーニング用のトランスフォーマーベースの検出デコンタミネータ(D$3$)と、マッチングのための特定のアルゴリズムRally-Hungarian(RH)を慎重に設計する。
我々のモデルはバレーボールビデオのみで訓練されており、MATのバスケットボールやサッカービデオに直接適用することができる。
論文 参考訳(メタデータ) (2022-09-25T15:46:39Z) - Unified Transformer Tracker for Object Tracking [58.65901124158068]
異なるシナリオにおけるトラッキング問題に1つのパラダイムで対処するために,UTT(Unified Transformer Tracker)を提案する。
SOT(Single Object Tracking)とMOT(Multiple Object Tracking)の両方を対象とするトラックトランスフォーマーを開発した。
論文 参考訳(メタデータ) (2022-03-29T01:38:49Z) - Chained-Tracker: Chaining Paired Attentive Regression Results for
End-to-End Joint Multiple-Object Detection and Tracking [102.31092931373232]
そこで我々は,3つのサブタスク全てをエンド・ツー・エンドのソリューションに統合する簡単なオンラインモデルである Chained-Tracker (CTracker) を提案する。
鎖状構造と対の注意的回帰という2つの大きな特徴は、CTrackerをシンプルに、速く、効果的にする。
論文 参考訳(メタデータ) (2020-07-29T02:38:49Z) - Tracking by Instance Detection: A Meta-Learning Approach [99.66119903655711]
本稿では,高性能トラッカー構築のための3段階の原理的手法を提案する。
我々は2つの現代的な検出器であるRetinaNetとFCOSをベースに、Retina-MAMLとFCOS-MAMLという2つのトラッカーを構築した。
両方のトラッカーは40FPSでリアルタイムに動作します。
論文 参考訳(メタデータ) (2020-04-02T05:55:06Z) - Detection in Crowded Scenes: One Proposal, Multiple Predictions [79.28850977968833]
混み合ったシーンにおける高過度なインスタンスを検出することを目的とした,提案手法によるオブジェクト検出手法を提案する。
このアプローチの鍵は、各提案が以前の提案ベースのフレームワークの1つではなく、関連したインスタンスのセットを予測できるようにすることです。
我々の検出器は、CrowdHumanデータセットの挑戦に対して4.9%のAPゲインを得ることができ、CityPersonsデータセットでは1.0%$textMR-2$の改善がある。
論文 参考訳(メタデータ) (2020-03-20T09:48:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。