論文の概要: MultiSports: A Multi-Person Video Dataset of Spatio-Temporally Localized
Sports Actions
- arxiv url: http://arxiv.org/abs/2105.07404v1
- Date: Sun, 16 May 2021 10:40:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:46:51.780665
- Title: MultiSports: A Multi-Person Video Dataset of Spatio-Temporally Localized
Sports Actions
- Title(参考訳): multisports: 時空間的局所化スポーツ行動のマルチパーソンビデオデータセット
- Authors: Yixuan Li, Lei Chen, Runyu He, Zhenzhi Wang, Gangshan Wu, Limin Wang
- Abstract要約: 本論文では、マルチスポーツとして作成された原子時間行動の新しいマルチパーソンデータセットを提示する。
4つのスポーツクラスを選択し、約3200のビデオクリップを収集し、37790のアクションインスタンスに907kバウンディングボックスをアノテートすることで、MultiSports v1.0のデータセットを構築します。
- 参考スコア(独自算出の注目度): 39.27858380391081
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatio-temporal action detection is an important and challenging problem in
video understanding. The existing action detection benchmarks are limited in
aspects of small numbers of instances in a trimmed video or relatively
low-level atomic actions. This paper aims to present a new multi-person dataset
of spatio-temporal localized sports actions, coined as MultiSports. We first
analyze the important ingredients of constructing a realistic and challenging
dataset for spatio-temporal action detection by proposing three criteria: (1)
motion dependent identification, (2) with well-defined boundaries, (3)
relatively high-level classes. Based on these guidelines, we build the dataset
of Multi-Sports v1.0 by selecting 4 sports classes, collecting around 3200
video clips, and annotating around 37790 action instances with 907k bounding
boxes. Our datasets are characterized with important properties of strong
diversity, detailed annotation, and high quality. Our MultiSports, with its
realistic setting and dense annotations, exposes the intrinsic challenge of
action localization. To benchmark this, we adapt several representative methods
to our dataset and give an in-depth analysis on the difficulty of action
localization in our dataset. We hope our MultiSports can serve as a standard
benchmark for spatio-temporal action detection in the future. Our dataset
website is at https://deeperaction.github.io/multisports/.
- Abstract(参考訳): 時空間行動検出はビデオ理解において重要かつ困難な問題である。
既存のアクション検出ベンチマークは、トリミングされたビデオや比較的低レベルのアトミックアクションの少数のインスタンスの側面で制限されている。
本稿では, 時空間的局所化スポーツ行動の多人数データセットを, マルチスポーツとして提案する。
我々はまず,(1)動き依存識別,(2)境界が明確に定義された,(3)比較的高レベルな3つの基準を提案することによって,時空間行動検出のための現実的で挑戦的なデータセットを構築する重要な要素を分析する。
これらのガイドラインに基づいて,4つのスポーツクラスを選択し,約3200のビデオクリップを収集し,約37790のアクションインスタンスに907kバウンドボックスをアノテートすることにより,マルチスポーツv1.0のデータセットを構築する。
我々のデータセットは、強力な多様性、詳細なアノテーション、高品質の点で特徴付けられる。
リアルな設定と密集したアノテーションを備えたマルチスポーツは、アクションローカライズという本質的な課題を露呈しています。
これを評価するために、データセットにいくつかの代表的手法を適用し、データセットにおけるアクションローカライゼーションの難しさを詳細に分析する。
我々のMultiSportsが将来、時空間行動検出の標準ベンチマークとして機能することを願っている。
データセットのWebサイトはhttps://deeperaction.github.io/multisports/にあります。
関連論文リスト
- Deep learning for action spotting in association football videos [64.10841325879996]
SoccerNetイニシアチブは毎年の課題を組織し、世界中の参加者が最先端のパフォーマンスを達成するために競う。
本稿では,スポーツにおけるアクションスポッティングの歴史を,2018年の課題の創出から,現在の研究・スポーツ産業における役割まで遡る。
論文 参考訳(メタデータ) (2024-10-02T07:56:15Z) - Benchmarking Badminton Action Recognition with a New Fine-Grained Dataset [16.407837909069073]
高品質なバドミントン映像から得られたビデオバドミントンデータセットを紹介する。
VideoBadmintonの導入は、バドミントンアクション認識だけでなく、きめ細かいアクションを認識するためのデータセットも提供する。
論文 参考訳(メタデータ) (2024-03-19T02:52:06Z) - Towards Active Learning for Action Spotting in Association Football
Videos [59.84375958757395]
フットボールビデオの分析は困難であり、微妙で多様な時間的パターンを特定する必要がある。
現在のアルゴリズムは、限られた注釈付きデータから学ぶ際に大きな課題に直面している。
次にアノテートすべき最も情報に富んだビデオサンプルを選択する能動的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-09T11:50:41Z) - Sports Video Analysis on Large-Scale Data [10.24207108909385]
本稿では,スポーツビデオにおける自動機械記述のモデル化について検討する。
スポーツビデオ分析のためのNBAデータセット(NSVA)を提案する。
論文 参考訳(メタデータ) (2022-08-09T16:59:24Z) - P2ANet: A Dataset and Benchmark for Dense Action Detection from Table Tennis Match Broadcasting Videos [64.57435509822416]
この作品は、ワールド・テーブルテニス選手権とオリンピアードのプロの卓球試合の放送ビデオから収集された2,721本のビデオクリップで構成されている。
強調局所化と強調認識という2つのアクション検出問題を定式化する。
その結果、TheNameは依然として困難なタスクであり、ビデオからの高密度なアクション検出のための特別なベンチマークとして使用できることを確認した。
論文 参考訳(メタデータ) (2022-07-26T08:34:17Z) - Video Action Detection: Analysing Limitations and Challenges [70.01260415234127]
ビデオ行動検出における既存のデータセットを分析し,その限界について議論する。
静的画像から映像を区別する重要な特性である時間的側面を解析するバイアスネススタディを実行する。
このような極端な実験は、注意深いモデリングを必要とする既存の手法に忍び込んだバイアスの存在を示している。
論文 参考訳(メタデータ) (2022-04-17T00:42:14Z) - A Unified Taxonomy and Multimodal Dataset for Events in Invasion Games [3.7111751305143654]
本稿では,侵略ゲームにおける多種多様な低レベル・高レベルの事象を包括する普遍的な分類法を提案する。
我々は、細粒度および球中心イベントスポッティングの研究を促進するため、金標準アノテーションを用いたビデオデータと位置データからなる2つのマルチモーダルデータセットをリリースする。
論文 参考訳(メタデータ) (2021-08-25T10:09:28Z) - Hybrid Dynamic-static Context-aware Attention Network for Action
Assessment in Long Videos [96.45804577283563]
本稿では,長期ビデオにおけるアクションアセスメントのための新しいハイブリットDynAmic-static Context-aware AttenTION NETwork(ACTION-NET)を提案する。
ビデオのダイナミックな情報を学習すると同時に,特定フレームにおける検出した選手の静的姿勢にも焦点をあてる。
2つのストリームの特徴を組み合わせることで、専門家が与えた地道的なスコアによって監督され、最終的なビデオスコアを後退させます。
論文 参考訳(メタデータ) (2020-08-13T15:51:42Z) - Event detection in coarsely annotated sports videos via parallel multi
receptive field 1D convolutions [14.30009544149561]
スポーツビデオ分析のような問題では、正確なフレームレベルのアノテーションと正確なイベント時間を得るのは難しい。
粗い注釈付きビデオにおけるイベント検出の課題を提案する。
本稿では,提案課題に対する多層時間畳み込みネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-04-13T19:51:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。