論文の概要: Benchmarking Badminton Action Recognition with a New Fine-Grained Dataset
- arxiv url: http://arxiv.org/abs/2403.12385v2
- Date: Sat, 02 Nov 2024 02:29:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:40:51.358893
- Title: Benchmarking Badminton Action Recognition with a New Fine-Grained Dataset
- Title(参考訳): 新しい細粒度データセットを用いたバドミントン行動認識のベンチマーク
- Authors: Qi Li, Tzu-Chen Chiu, Hsiang-Wei Huang, Min-Te Sun, Wei-Shinn Ku,
- Abstract要約: 高品質なバドミントン映像から得られたビデオバドミントンデータセットを紹介する。
VideoBadmintonの導入は、バドミントンアクション認識だけでなく、きめ細かいアクションを認識するためのデータセットも提供する。
- 参考スコア(独自算出の注目度): 16.407837909069073
- License:
- Abstract: In the dynamic and evolving field of computer vision, action recognition has become a key focus, especially with the advent of sophisticated methodologies like Convolutional Neural Networks (CNNs), Convolutional 3D, Transformer, and spatial-temporal feature fusion. These technologies have shown promising results on well-established benchmarks but face unique challenges in real-world applications, particularly in sports analysis, where the precise decomposition of activities and the distinction of subtly different actions are crucial. Existing datasets like UCF101, HMDB51, and Kinetics have offered a diverse range of video data for various scenarios. However, there's an increasing need for fine-grained video datasets that capture detailed categorizations and nuances within broader action categories. In this paper, we introduce the VideoBadminton dataset derived from high-quality badminton footage. Through an exhaustive evaluation of leading methodologies on this dataset, this study aims to advance the field of action recognition, particularly in badminton sports. The introduction of VideoBadminton could not only serve for badminton action recognition but also provide a dataset for recognizing fine-grained actions. The insights gained from these evaluations are expected to catalyze further research in action comprehension, especially within sports contexts.
- Abstract(参考訳): コンピュータビジョンのダイナミックで進化する分野では、特に畳み込みニューラルネットワーク(CNN)、畳み込み3D、トランスフォーマー、空間時間的特徴融合といった高度な方法論の出現によって、アクション認識が重要な焦点となっている。
これらの技術は、確立されたベンチマークにおいて有望な結果を示しているが、特にスポーツ分析において、活動の正確な分解と微妙な異なる行動の区別が不可欠である現実の応用において、ユニークな課題に直面している。
UCF101、HMDB51、Kineticsといった既存のデータセットは、さまざまなシナリオのための多様なビデオデータを提供している。
しかし、より広範なアクションカテゴリ内の詳細な分類とニュアンスをキャプチャする、きめ細かいビデオデータセットの必要性が高まっている。
本稿では,高品質なバドミントン映像から得られたビデオバドミントンデータセットを紹介する。
本研究は,特にバドミントンスポーツにおける行動認識の分野での進歩をめざす。
VideoBadmintonの導入は、バドミントンアクション認識だけでなく、きめ細かいアクションを認識するためのデータセットも提供する。
これらの評価から得られた知見は、特にスポーツの文脈において、行動理解のさらなる研究を促進することが期待されている。
関連論文リスト
- Deep learning for action spotting in association football videos [64.10841325879996]
SoccerNetイニシアチブは毎年の課題を組織し、世界中の参加者が最先端のパフォーマンスを達成するために競う。
本稿では,スポーツにおけるアクションスポッティングの歴史を,2018年の課題の創出から,現在の研究・スポーツ産業における役割まで遡る。
論文 参考訳(メタデータ) (2024-10-02T07:56:15Z) - ShuttleSet: A Human-Annotated Stroke-Level Singles Dataset for Badminton
Tactical Analysis [5.609957071296952]
我々は、アノテートされたストロークレベルの記録を持つ、公開可能な最大のバドミントンシングルスデータセットであるShuttleSetを紹介する。
104セット、3,685ラリー、36,492ストロークが2018年から2021年にかけて44試合に出場し、27人の男子シングルと女子シングルが出場した。
ShuttleSetはコンピュータ支援ラベル付けツールで手動で注釈付けされ、ショットタイプを選択する際のラベル付け効率と有効性を高める。
論文 参考訳(メタデータ) (2023-06-08T05:41:42Z) - Towards Active Learning for Action Spotting in Association Football
Videos [59.84375958757395]
フットボールビデオの分析は困難であり、微妙で多様な時間的パターンを特定する必要がある。
現在のアルゴリズムは、限られた注釈付きデータから学ぶ際に大きな課題に直面している。
次にアノテートすべき最も情報に富んだビデオサンプルを選択する能動的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-09T11:50:41Z) - Sports Video Analysis on Large-Scale Data [10.24207108909385]
本稿では,スポーツビデオにおける自動機械記述のモデル化について検討する。
スポーツビデオ分析のためのNBAデータセット(NSVA)を提案する。
論文 参考訳(メタデータ) (2022-08-09T16:59:24Z) - A Survey on Video Action Recognition in Sports: Datasets, Methods and
Applications [60.3327085463545]
本稿では,スポーツ分析のための映像行動認識に関する調査を行う。
サッカー、バスケットボール、バレーボール、ホッケー、フィギュアスケート、体操、卓球、ダイビング、バドミントンなど10種以上のスポーツを紹介します。
本研究では,サッカー,バスケットボール,卓球,フィギュアスケート動作認識をサポートするPaddlePaddleを用いたツールボックスを開発した。
論文 参考訳(メタデータ) (2022-06-02T13:19:36Z) - HighlightMe: Detecting Highlights from Human-Centric Videos [62.265410865423]
我々は,人間中心のビデオからハイライト可能な抜粋を検出するために,ドメインとユーザに依存しないアプローチを提案する。
本研究では,時空間グラフ畳み込みを用いたオートエンコーダネットワークを用いて,人間の活動やインタラクションを検出する。
我々は,最先端の手法に比べて,人手によるハイライトのマッチングの平均精度が4~12%向上したことを観察した。
論文 参考訳(メタデータ) (2021-10-05T01:18:15Z) - MultiSports: A Multi-Person Video Dataset of Spatio-Temporally Localized
Sports Actions [39.27858380391081]
本論文では、マルチスポーツとして作成された原子時間行動の新しいマルチパーソンデータセットを提示する。
4つのスポーツクラスを選択し、約3200のビデオクリップを収集し、37790のアクションインスタンスに907kバウンディングボックスをアノテートすることで、MultiSports v1.0のデータセットを構築します。
論文 参考訳(メタデータ) (2021-05-16T10:40:30Z) - A New Action Recognition Framework for Video Highlights Summarization in
Sporting Events [9.870478438166288]
YOLO-v3とOpenPoseという2つの古典的オープンソース構造に基づく3レベル予測アルゴリズムを用いて,スポーツビデオストリームを自動的にクリップするフレームワークを提案する。
その結果,スポーツ映像のトレーニングデータを用いて,スポーツ活動のハイライトを正確に行うことができることがわかった。
論文 参考訳(メタデータ) (2020-12-01T04:14:40Z) - Hybrid Dynamic-static Context-aware Attention Network for Action
Assessment in Long Videos [96.45804577283563]
本稿では,長期ビデオにおけるアクションアセスメントのための新しいハイブリットDynAmic-static Context-aware AttenTION NETwork(ACTION-NET)を提案する。
ビデオのダイナミックな情報を学習すると同時に,特定フレームにおける検出した選手の静的姿勢にも焦点をあてる。
2つのストリームの特徴を組み合わせることで、専門家が与えた地道的なスコアによって監督され、最終的なビデオスコアを後退させます。
論文 参考訳(メタデータ) (2020-08-13T15:51:42Z) - FineGym: A Hierarchical Video Dataset for Fine-grained Action
Understanding [118.32912239230272]
FineGymは体操ビデオの上に構築された新しいアクション認識データセットだ。
アクションレベルとサブアクションレベルの両方で3レベルのセマンティック階層を持つテンポラリアノテーションを提供する。
この新たな粒度レベルは、行動認識に重大な課題をもたらす。
論文 参考訳(メタデータ) (2020-04-14T17:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。