論文の概要: TrackID3x3: A Dataset and Algorithm for Multi-Player Tracking with Identification and Pose Estimation in 3x3 Basketball Full-court Videos
- arxiv url: http://arxiv.org/abs/2503.18282v1
- Date: Mon, 24 Mar 2025 01:55:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:36:22.355146
- Title: TrackID3x3: A Dataset and Algorithm for Multi-Player Tracking with Identification and Pose Estimation in 3x3 Basketball Full-court Videos
- Title(参考訳): TrackID3x3: 3x3バスケットボールフルコートビデオにおける識別とポス推定によるマルチプレイヤー追跡のためのデータセットとアルゴリズム
- Authors: Kazuhiro Yamada, Li Yin, Qingrui Hu, Ning Ding, Shunsuke Iwashita, Jun Ichikawa, Kiwamu Kotani, Calvin Yeung, Keisuke Fujii,
- Abstract要約: 本稿では,3x3バスケットボールシナリオにおけるマルチプレイヤー追跡,プレイヤー識別,ポーズ推定に特化して設計された最初のデータセットを提案する。
データセットは3つの異なるサブセット(室内固定カメラ、屋外固定カメラ、ドローンカメラ)で構成され、さまざまなフルコートカメラの視点と環境をキャプチャする。
そこで本研究では,トラッキングと識別の質を評価するために,Track-IDアルゴリズムと呼ばれるベースラインアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 8.70594963462731
- License:
- Abstract: Multi-object tracking, player identification, and pose estimation are fundamental components of sports analytics, essential for analyzing player movements, performance, and tactical strategies. However, existing datasets and methodologies primarily target mainstream team sports such as soccer and conventional 5-on-5 basketball, often overlooking scenarios involving fixed-camera setups commonly used at amateur levels, less mainstream sports, or datasets that explicitly incorporate pose annotations. In this paper, we propose the TrackID3x3 dataset, the first publicly available comprehensive dataset specifically designed for multi-player tracking, player identification, and pose estimation in 3x3 basketball scenarios. The dataset comprises three distinct subsets (Indoor fixed-camera, Outdoor fixed-camera, and Drone camera footage), capturing diverse full-court camera perspectives and environments. We also introduce the Track-ID task, a simplified variant of the game state reconstruction task that excludes field detection and focuses exclusively on fixed-camera scenarios. To evaluate performance, we propose a baseline algorithm called Track-ID algorithm, tailored to assess tracking and identification quality. Furthermore, our benchmark experiments, utilizing recent multi-object tracking algorithms (e.g., BoT-SORT-ReID) and top-down pose estimation methods (HRNet, RTMPose, and SwinPose), demonstrate robust results and highlight remaining challenges. Our dataset and evaluation benchmarks provide a solid foundation for advancing automated analytics in 3x3 basketball. Dataset and code will be available at https://github.com/open-starlab/TrackID3x3.
- Abstract(参考訳): 多目的追跡、プレイヤー識別、ポーズ推定はスポーツ分析の基本的な要素であり、プレイヤーの動き、パフォーマンス、戦術戦略を分析するのに不可欠である。
しかし、既存のデータセットや方法論は主にサッカーや従来の5-on-5バスケットボールのようなメインストリームのチームスポーツをターゲットにしており、アマチュアレベルで一般的に使用される固定カメラのセットアップ、あまり主流ではないスポーツ、またはポーズアノテーションを明示的に取り入れたデータセットを含むシナリオを見落としていることが多い。
本稿では,3x3バスケットボールシナリオにおけるマルチプレイヤー追跡,プレーヤ識別,ポーズ推定に特化して設計された,最初の一般公開された総合データセットであるTrackID3x3データセットを提案する。
データセットは3つの異なるサブセット(室内固定カメラ、屋外固定カメラ、ドローンカメラ)で構成され、さまざまなフルコートカメラの視点と環境をキャプチャする。
また、フィールド検出を除外し、固定カメラのシナリオにのみフォーカスするゲーム状態再構築タスクの簡易版であるTrack-IDタスクも導入した。
そこで本研究では,トラッキングと識別の質を評価するために,Track-IDアルゴリズムと呼ばれるベースラインアルゴリズムを提案する。
さらに,最近の多目的追跡アルゴリズム (BoT-SORT-ReID) とトップダウンポーズ推定手法 (HRNet, RTMPose, SwinPose) を用いて, 頑健な結果を示し, 残る課題を強調した。
私たちのデータセットと評価ベンチマークは、3x3バスケットボールにおける自動分析の進歩のための確かな基盤を提供します。
データセットとコードはhttps://github.com/open-starlab/TrackID3x3.comから入手できる。
関連論文リスト
- RockTrack: A 3D Robust Multi-Camera-Ken Multi-Object Tracking Framework [28.359633046753228]
マルチカメラ検出器のための3次元MOT法であるRockTrackを提案する。
RockTrackには、信頼性の高い前処理モジュールが組み込まれており、信頼性の高い動きと画像の観察を抽出する。
RockTrackは、59.1%のAMOTAを持つnuScenesビジョンのみのトラッキングリーダーボードで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-09-18T07:08:08Z) - 3D-Aware Instance Segmentation and Tracking in Egocentric Videos [107.10661490652822]
エゴセントリックなビデオは、3Dシーンの理解にユニークな課題を提示する。
本稿では,一対一のビデオにおけるインスタンスのセグメンテーションとトラッキングに対する新しいアプローチを提案する。
空間的および時間的手がかりを取り入れることで、最先端の2D手法と比較して優れた性能が得られる。
論文 参考訳(メタデータ) (2024-08-19T10:08:25Z) - TeamTrack: A Dataset for Multi-Sport Multi-Object Tracking in Full-pitch Videos [11.35998213546475]
マルチオブジェクトトラッキング(MOT)はコンピュータビジョンにおいて重要な課題である。
スポーツにおけるMOTに特化したベンチマークデータセットであるTeamTrackを紹介する。
TeamTrackは、サッカー、バスケットボール、ハンドボールなど、さまざまなスポーツのフルピッチビデオデータを集めたコレクションだ。
論文 参考訳(メタデータ) (2024-04-22T04:33:40Z) - DIVOTrack: A Novel Dataset and Baseline Method for Cross-View
Multi-Object Tracking in DIVerse Open Scenes [74.64897845999677]
歩行者が密集したDIVerse Openのシーンを対象とした,新しいクロスビュー多目的追跡データセットを提案する。
私たちのDIVOTrackには15の異なるシナリオと953のクロスビュートラックがあります。
さらに,クロスモット(CrossMOT)という統合型共同検出・クロスビュートラッキングフレームワークを用いた新しいベースラインクロスビュートラッキング手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:10:42Z) - CXTrack: Improving 3D Point Cloud Tracking with Contextual Information [59.55870742072618]
3Dオブジェクトトラッキングは、自律運転など、多くのアプリケーションにおいて重要な役割を果たす。
CXTrackは3次元オブジェクト追跡のためのトランスフォーマーベースのネットワークである。
CXTrackは29FPSで動作しながら最先端のトラッキング性能を実現する。
論文 参考訳(メタデータ) (2022-11-12T11:29:01Z) - SoccerNet-Tracking: Multiple Object Tracking Dataset and Benchmark in
Soccer Videos [62.686484228479095]
本稿では,各30の200列からなる複数物体追跡のための新しいデータセットを提案する。
データセットは、バウンディングボックスとトラックレットIDで完全に注釈付けされている。
分析の結果,サッカービデオにおける複数の選手,審判,ボール追跡が解決されるには程遠いことがわかった。
論文 参考訳(メタデータ) (2022-04-14T12:22:12Z) - MultiSports: A Multi-Person Video Dataset of Spatio-Temporally Localized
Sports Actions [39.27858380391081]
本論文では、マルチスポーツとして作成された原子時間行動の新しいマルチパーソンデータセットを提示する。
4つのスポーツクラスを選択し、約3200のビデオクリップを収集し、37790のアクションインスタンスに907kバウンディングボックスをアノテートすることで、MultiSports v1.0のデータセットを構築します。
論文 参考訳(メタデータ) (2021-05-16T10:40:30Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。