論文の概要: $\textbf{P$^2$A}$: A Dataset and Benchmark for Dense Action Detection
from Table Tennis Match Broadcasting Videos
- arxiv url: http://arxiv.org/abs/2207.12730v1
- Date: Tue, 26 Jul 2022 08:34:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 12:26:54.767294
- Title: $\textbf{P$^2$A}$: A Dataset and Benchmark for Dense Action Detection
from Table Tennis Match Broadcasting Videos
- Title(参考訳): $\textbf{P$^2$A}$:テーブルテニスマッチ放送ビデオからのDense Action Detectionのためのデータセットとベンチマーク
- Authors: Jiang Bian, Qingzhong Wang, Haoyi Xiong, Jun Huang, Chen Liu, Xuhong
Li, Jun Cheng, Jun Zhao, Feixiang Lu, Dejing Dou
- Abstract要約: スポーツビデオデータセット $textbfP$2$A$ for $underlineP$ong-$underlineA$ction detection もリリースしています。
このデータセットはプロの卓球試合の放送ビデオから収集された2,721本のビデオクリップで構成されている。
- 参考スコア(独自算出の注目度): 54.71836328275178
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While deep learning has been widely used for video analytics, such as video
classification and action detection, dense action detection with fast-moving
subjects from sports videos is still challenging. In this work, we release yet
another sports video dataset $\textbf{P$^2$A}$ for $\underline{P}$ing
$\underline{P}$ong-$\underline{A}$ction detection, which consists of 2,721
video clips collected from the broadcasting videos of professional table tennis
matches in World Table Tennis Championships and Olympiads. We work with a crew
of table tennis professionals and referees to obtain fine-grained action labels
(in 14 classes) for every ping-pong action that appeared in the dataset and
formulate two sets of action detection problems - action localization and
action recognition. We evaluate a number of commonly-seen action recognition
(e.g., TSM, TSN, Video SwinTransformer, and Slowfast) and action localization
models (e.g., BSN, BSN++, BMN, TCANet), using $\textbf{P$^2$A}$ for both
problems, under various settings. These models can only achieve 48% area under
the AR-AN curve for localization and 82% top-one accuracy for recognition since
the ping-pong actions are dense with fast-moving subjects but broadcasting
videos are with only 25 FPS. The results confirm that $\textbf{P$^2$A}$ is
still a challenging task and can be used as a benchmark for action detection
from videos.
- Abstract(参考訳): ビデオ分類やアクション検出など、ビデオ分析にディープラーニングが広く使われているが、スポーツビデオから素早く動く被験者による密集したアクション検出は依然として難しい。
本研究では,世界卓テニス選手権とオリンピックのプロ卓球試合のブロードキャストビデオから収集した2,721本のビデオクリップからなる,新たなスポーツビデオデータセット『\textbf{p$^2$a}$ for $\underline{p}$ing $\underline{p}$ong-$\underline{a}$ction detection』をリリースする。
テーブルテニスのプロや審判のスタッフと共同で,データセットに現れるピンポンアクション毎に粒度の細かいアクションラベル(14クラス)を取得し,2つのアクション検出問題 – アクションローカライゼーションとアクション認識 – を定式化する。
動作ローカライズモデル(BSN, BSN++, BMN, TCANetなど)と動作ローカライズモデル(TSM, TSN, Video SwinTransformer, Slowfastなど)を,さまざまな設定で$\textbf{P$^2$A}$で評価する。
これらのモデルはAR-AN曲線の48%の領域しか達成できないが、ピンポン動作は高速動作対象で密集しているが、放送ビデオは25FPSしか持たないため、認識の82%がトップワン精度である。
その結果、$\textbf{P$^2$A}$は依然として困難なタスクであり、ビデオからのアクション検出のベンチマークとして使用できることを確認した。
関連論文リスト
- Deep learning for action spotting in association football videos [64.10841325879996]
SoccerNetイニシアチブは毎年の課題を組織し、世界中の参加者が最先端のパフォーマンスを達成するために競う。
本稿では,スポーツにおけるアクションスポッティングの歴史を,2018年の課題の創出から,現在の研究・スポーツ産業における役割まで遡る。
論文 参考訳(メタデータ) (2024-10-02T07:56:15Z) - Towards Active Learning for Action Spotting in Association Football
Videos [59.84375958757395]
フットボールビデオの分析は困難であり、微妙で多様な時間的パターンを特定する必要がある。
現在のアルゴリズムは、限られた注釈付きデータから学ぶ際に大きな課題に直面している。
次にアノテートすべき最も情報に富んだビデオサンプルを選択する能動的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-09T11:50:41Z) - Sport Task: Fine Grained Action Detection and Classification of Table
Tennis Strokes from Videos for MediaEval 2022 [0.9894420655516565]
本課題は,スポーツビデオから微妙な動きを検出し,分類することである。
私たちは卓球の試合の記録に重点を置いている。
2021年以降、このタスクは、注釈のない未修正ビデオからのストローク検出にも挑戦している。
論文 参考訳(メタデータ) (2023-01-31T12:03:59Z) - A Graph-Based Method for Soccer Action Spotting Using Unsupervised
Player Classification [75.93186954061943]
アクションスポッティングには、ゲームのダイナミクス、イベントの複雑さ、ビデオシーケンスのバリエーションを理解することが含まれる。
本研究では, (a) 選手, 審判, ゴールキーパーをグラフのノードとして識別し, および (b) 時間的相互作用をグラフのシーケンスとしてモデル化することによって, 前者に焦点を当てる。
プレーヤ識別タスクでは,他のモダリティと組み合わせることで,平均mAPの57.83%の総合的な性能が得られる。
論文 参考訳(メタデータ) (2022-11-22T15:23:53Z) - A Survey on Video Action Recognition in Sports: Datasets, Methods and
Applications [60.3327085463545]
本稿では,スポーツ分析のための映像行動認識に関する調査を行う。
サッカー、バスケットボール、バレーボール、ホッケー、フィギュアスケート、体操、卓球、ダイビング、バドミントンなど10種以上のスポーツを紹介します。
本研究では,サッカー,バスケットボール,卓球,フィギュアスケート動作認識をサポートするPaddlePaddleを用いたツールボックスを開発した。
論文 参考訳(メタデータ) (2022-06-02T13:19:36Z) - Sports Video: Fine-Grained Action Detection and Classification of Table
Tennis Strokes from Videos for MediaEval 2021 [0.0]
このタスクは、ビデオからのきめ細かいアクション検出と分類に取り組む。
主に卓球の試合の記録に焦点が当てられている。
本研究は,スポーツのパフォーマンスを解析するために,スポーツコーチや選手のためのツールを作成することを目的としている。
論文 参考訳(メタデータ) (2021-12-16T10:17:59Z) - Hybrid Dynamic-static Context-aware Attention Network for Action
Assessment in Long Videos [96.45804577283563]
本稿では,長期ビデオにおけるアクションアセスメントのための新しいハイブリットDynAmic-static Context-aware AttenTION NETwork(ACTION-NET)を提案する。
ビデオのダイナミックな情報を学習すると同時に,特定フレームにおける検出した選手の静的姿勢にも焦点をあてる。
2つのストリームの特徴を組み合わせることで、専門家が与えた地道的なスコアによって監督され、最終的なビデオスコアを後退させます。
論文 参考訳(メタデータ) (2020-08-13T15:51:42Z) - TTNet: Real-time temporal and spatial video analysis of table tennis [5.156484100374058]
本稿では,高精細度卓球ビデオのリアルタイム処理を目的としたニューラルネットワークを提案する。
このアプローチは、自動参照システムによるスコア更新を推論するためのコア情報を提供する。
イベントをラベル付けした120fpsのテーブルテニスゲームのビデオ付きマルチタスクデータセットOpenTTGamesを公開している。
論文 参考訳(メタデータ) (2020-04-21T11:57:51Z) - Event detection in coarsely annotated sports videos via parallel multi
receptive field 1D convolutions [14.30009544149561]
スポーツビデオ分析のような問題では、正確なフレームレベルのアノテーションと正確なイベント時間を得るのは難しい。
粗い注釈付きビデオにおけるイベント検出の課題を提案する。
本稿では,提案課題に対する多層時間畳み込みネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-04-13T19:51:25Z) - Unsupervised Temporal Feature Aggregation for Event Detection in
Unstructured Sports Videos [10.230408415438966]
任意のカメラアングルを持つ非構造化環境を対象としたスポーツビデオにおけるイベント検出事例について検討した。
我々は、非構造化設定におけるプレイヤーの教師なし識別と、任意の射撃角度によるバリエーションを示すために訓練されたモデルの一般化の2つの主要な問題を同定し、解決する。
論文 参考訳(メタデータ) (2020-02-19T10:24:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。