論文の概要: Action Spotting and Precise Event Detection in Sports: Datasets, Methods, and Challenges
- arxiv url: http://arxiv.org/abs/2505.03991v1
- Date: Tue, 06 May 2025 22:02:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:35.923881
- Title: Action Spotting and Precise Event Detection in Sports: Datasets, Methods, and Challenges
- Title(参考訳): スポーツにおけるアクションスポッティングと精密イベント検出:データセット,方法,課題
- Authors: Hao Xu, Arbind Agrahari Baniya, Sam Well, Mohamed Reda Bouadjenek, Richard Dazeley, Sunil Aryal,
- Abstract要約: ビデオイベント検出はスポーツ分析の重要な要素となり、重要な瞬間の自動識別を可能にしている。
近年のディープラーニング、特にCNNやTransformersは、イベント検出の精度と効率を大幅に改善している。
この調査は、効率的、一般化可能、マルチモーダルスポーツイベントの検出に関する将来の研究の基盤となっている。
- 参考スコア(独自算出の注目度): 5.747955930615445
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Video event detection has become an essential component of sports analytics, enabling automated identification of key moments and enhancing performance analysis, viewer engagement, and broadcast efficiency. Recent advancements in deep learning, particularly Convolutional Neural Networks (CNNs) and Transformers, have significantly improved accuracy and efficiency in Temporal Action Localization (TAL), Action Spotting (AS), and Precise Event Spotting (PES). This survey provides a comprehensive overview of these three key tasks, emphasizing their differences, applications, and the evolution of methodological approaches. We thoroughly review and categorize existing datasets and evaluation metrics specifically tailored for sports contexts, highlighting the strengths and limitations of each. Furthermore, we analyze state-of-the-art techniques, including multi-modal approaches that integrate audio and visual information, methods utilizing self-supervised learning and knowledge distillation, and approaches aimed at generalizing across multiple sports. Finally, we discuss critical open challenges and outline promising research directions toward developing more generalized, efficient, and robust event detection frameworks applicable to diverse sports. This survey serves as a foundation for future research on efficient, generalizable, and multi-modal sports event detection.
- Abstract(参考訳): ビデオイベント検出は、重要な瞬間の自動識別を可能にし、パフォーマンス分析、視聴者のエンゲージメント、放送効率を向上させる。
近年のディープラーニング、特に畳み込みニューラルネットワーク(CNN)とトランスフォーマーの進歩は、時間的行動局所化(TAL)、行動スポッティング(AS)、精密事象スポッティング(PES)の精度と効率を大幅に改善した。
この調査は、これらの3つの重要なタスクの総合的な概要を提供し、それらの違い、応用、そして方法論的アプローチの進化を強調している。
スポーツコンテキストに適した既存のデータセットと評価指標を徹底的にレビューし、分類し、それぞれの長所と短所を強調します。
さらに、音声と視覚情報を統合するマルチモーダルアプローチ、自己教師付き学習と知識蒸留を利用した手法、複数のスポーツをまたいだ一般化を目的としたアプローチなど、最先端技術を分析する。
最後に,様々なスポーツに適用可能な,より一般化された,効率的で,堅牢なイベント検出フレームワークを開発するための,有望な研究方向性について論じる。
この調査は、効率的、一般化可能、マルチモーダルスポーツイベントの検出に関する将来の研究の基盤となっている。
関連論文リスト
- OpenSTARLab: Open Approach for Spatio-Temporal Agent Data Analysis in Soccer [0.9207076627649226]
スポーツアナリティクスは、より専門的で洗練されたものになり、詳細なパフォーマンスデータが利用できるようになった。
サッカーでは、イベントと追跡データの効果的な利用は、ゲームのダイナミクスを捕捉し分析するための基本となる。
本稿では,スポーツにおける時間的エージェントデータ分析の民主化を目的としたオープンソースフレームワークであるOpenSTARLabを提案する。
論文 参考訳(メタデータ) (2025-02-05T00:14:18Z) - About Time: Advances, Challenges, and Outlooks of Action Understanding [57.76390141287026]
この調査は、様々なタスクにおけるユニモーダルおよびマルチモーダルな行動理解の進歩を包括的にレビューする。
我々は,現在普及している課題,広く採用されているデータセットの概要,そして最近の進歩を重視したセミナー作品の調査に焦点をあてる。
論文 参考訳(メタデータ) (2024-11-22T18:09:27Z) - WearableMil: An End-to-End Framework for Military Activity Recognition and Performance Monitoring [7.130450173185638]
本稿では、軍事訓練におけるウェアラブルデータからの活動の事前処理、分析、認識のためのエンドツーエンドフレームワークを提案する。
textitGarmin-55スマートウォッチを6ヶ月以上、1500万分以上使用した兵士135人のデータを使っています。
我々のフレームワークは、生理学的にインフォームドされた方法で欠落したデータに対処し、未知の睡眠状態を40.38%から3.66%に減らした。
論文 参考訳(メタデータ) (2024-10-07T19:35:15Z) - Deep learning for action spotting in association football videos [64.10841325879996]
SoccerNetイニシアチブは毎年の課題を組織し、世界中の参加者が最先端のパフォーマンスを達成するために競う。
本稿では,スポーツにおけるアクションスポッティングの歴史を,2018年の課題の創出から,現在の研究・スポーツ産業における役割まで遡る。
論文 参考訳(メタデータ) (2024-10-02T07:56:15Z) - A Comprehensive Methodological Survey of Human Activity Recognition Across Divers Data Modalities [2.916558661202724]
人間活動認識(HAR)システムは、人間の行動を理解し、それぞれの行動にラベルを割り当てることを目的としている。
HARは、RGB画像やビデオ、スケルトン、深度、赤外線、ポイントクラウド、イベントストリーム、オーディオ、アクセラレーション、レーダー信号など、さまざまなデータモダリティを利用することができる。
本稿は,2014年から2024年までのHARの最新の進歩に関する包括的調査である。
論文 参考訳(メタデータ) (2024-09-15T10:04:44Z) - OSL-ActionSpotting: A Unified Library for Action Spotting in Sports Videos [56.393522913188704]
我々は,スポーツビデオ分析における研究と応用の合理化のために,さまざまなアクションスポッティングアルゴリズムを統合するPythonライブラリであるOSL-ActionSpottingを紹介する。
我々はOSL-ActionSpottingに3つの基本アクションスポッティング手法を統合することに成功した。
論文 参考訳(メタデータ) (2024-07-01T13:17:37Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - Towards Active Learning for Action Spotting in Association Football
Videos [59.84375958757395]
フットボールビデオの分析は困難であり、微妙で多様な時間的パターンを特定する必要がある。
現在のアルゴリズムは、限られた注釈付きデータから学ぶ際に大きな課題に直面している。
次にアノテートすべき最も情報に富んだビデオサンプルを選択する能動的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-09T11:50:41Z) - Reliable Shot Identification for Complex Event Detection via
Visual-Semantic Embedding [72.9370352430965]
本稿では,映像中の事象検出のための視覚的意味的誘導損失法を提案する。
カリキュラム学習に動機付け,高い信頼性の事例で分類器の訓練を開始するために,負の弾性正規化項を導入する。
提案する非ネット正規化問題の解法として,代替最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-12T11:46:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。