論文の概要: OSL-ActionSpotting: A Unified Library for Action Spotting in Sports Videos
- arxiv url: http://arxiv.org/abs/2407.01265v1
- Date: Mon, 1 Jul 2024 13:17:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 21:30:10.605206
- Title: OSL-ActionSpotting: A Unified Library for Action Spotting in Sports Videos
- Title(参考訳): OSL-ActionSpotting:スポーツビデオにおけるアクションスポッティングのための統一ライブラリ
- Authors: Yassine Benzakour, Bruno Cabado, Silvio Giancola, Anthony Cioppa, Bernard Ghanem, Marc Van Droogenbroeck,
- Abstract要約: 我々は,スポーツビデオ分析における研究と応用の合理化のために,さまざまなアクションスポッティングアルゴリズムを統合するPythonライブラリであるOSL-ActionSpottingを紹介する。
我々はOSL-ActionSpottingに3つの基本アクションスポッティング手法を統合することに成功した。
- 参考スコア(独自算出の注目度): 56.393522913188704
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Action spotting is crucial in sports analytics as it enables the precise identification and categorization of pivotal moments in sports matches, providing insights that are essential for performance analysis and tactical decision-making. The fragmentation of existing methodologies, however, impedes the progression of sports analytics, necessitating a unified codebase to support the development and deployment of action spotting for video analysis. In this work, we introduce OSL-ActionSpotting, a Python library that unifies different action spotting algorithms to streamline research and applications in sports video analytics. OSL-ActionSpotting encapsulates various state-of-the-art techniques into a singular, user-friendly framework, offering standardized processes for action spotting and analysis across multiple datasets. We successfully integrated three cornerstone action spotting methods into OSL-ActionSpotting, achieving performance metrics that match those of the original, disparate codebases. This unification within a single library preserves the effectiveness of each method and enhances usability and accessibility for researchers and practitioners in sports analytics. By bridging the gaps between various action spotting techniques, OSL-ActionSpotting significantly contributes to the field of sports video analysis, fostering enhanced analytical capabilities and collaborative research opportunities. The scalable and modularized design of the library ensures its long-term relevance and adaptability to future technological advancements in the domain.
- Abstract(参考訳): スポーツ分析においてアクションスポッティングは重要であり、スポーツの試合における重要な瞬間の正確な識別と分類を可能にし、パフォーマンス分析や戦術的意思決定に不可欠な洞察を提供する。
しかし,既存の手法の断片化はスポーツ分析の進歩を阻害し,ビデオ解析のためのアクションスポッティングの開発と展開を支援するために統一されたコードベースが必要である。
本稿では,スポーツビデオ分析における研究と応用の合理化のために,さまざまなアクションスポッティングアルゴリズムを統合するPythonライブラリであるOSL-ActionSpottingを紹介する。
OSL-ActionSpottingは、さまざまな最先端技術を単一のユーザフレンドリなフレームワークにカプセル化し、複数のデータセットにわたるアクションスポッティングと分析のための標準化されたプロセスを提供する。
我々はOSL-ActionSpottingに3つの基盤となるアクションスポッティングメソッドを統合することに成功した。
単一の図書館におけるこの統合は、それぞれの方法の有効性を保ち、スポーツ分析における研究者や実践者のユーザビリティとアクセシビリティを高める。
様々なアクションスポッティング技法のギャップを埋めることによって、OSL-ActionSpottingはスポーツビデオ分析の分野に大きく貢献し、分析能力の向上と共同研究の機会を育む。
ライブラリのスケーラブルでモジュール化された設計は、将来的な技術進歩に対する長期的な関連性と適応性を保証する。
関連論文リスト
- Towards a Unified View of Preference Learning for Large Language Models: A Survey [88.66719962576005]
大きな言語モデル(LLM)は、非常に強力な能力を示す。
成功するための重要な要因の1つは、LLMの出力を人間の好みに合わせることである。
選好学習のすべての戦略を、モデル、データ、フィードバック、アルゴリズムの4つの構成要素に分解する。
論文 参考訳(メタデータ) (2024-09-04T15:11:55Z) - Probabilistic Vision-Language Representation for Weakly Supervised Temporal Action Localization [3.996503381756227]
WTAL(Weakly supervised temporal action Localization)は、ビデオレベルのアノテーションのみを使用して、未トリミングビデオ中のアクションインスタンスを検出することを目的としている。
本稿では,人間の行動知識と意味知識を確率論的埋め込み空間に整合させる新しい枠組みを提案する。
本手法は,従来の最先端手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-08-12T07:09:12Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - Stance Detection with Collaborative Role-Infused LLM-Based Agents [39.75103353173015]
スタンス検出は、ウェブおよびソーシャルメディア研究におけるコンテンツ分析に不可欠である。
しかし、姿勢検出には、著者の暗黙の視点を推測する高度な推論が必要である。
LLMを異なる役割に指定した3段階のフレームワークを設計する。
複数のデータセットにまたがって最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-10-16T14:46:52Z) - Survey of Action Recognition, Spotting and Spatio-Temporal Localization
in Soccer -- Current Trends and Research Perspectives [0.7673339435080445]
サッカーにおけるアクションシーンの理解は、ゲームの複雑でダイナミックな性質のために難しい課題である。
この記事では、ディープラーニング技術と従来の手法を活用した最新の最先端の手法についてレビューする。
マルチモーダル法は、ビデオやオーディオデータなどの複数のソースからの情報を統合し、また、様々な方法で一つのソースを表すものも統合する。
論文 参考訳(メタデータ) (2023-09-21T13:36:57Z) - Towards Active Learning for Action Spotting in Association Football
Videos [59.84375958757395]
フットボールビデオの分析は困難であり、微妙で多様な時間的パターンを特定する必要がある。
現在のアルゴリズムは、限られた注釈付きデータから学ぶ際に大きな課題に直面している。
次にアノテートすべき最も情報に富んだビデオサンプルを選択する能動的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-09T11:50:41Z) - Continuous Human Action Recognition for Human-Machine Interaction: A
Review [39.593687054839265]
入力ビデオ内のアクションを認識することは難しいが、リアルタイムの人間と機械のインタラクションを必要とするアプリケーションに必要なタスクである。
我々は,ほとんどの最先端手法で使用される特徴抽出と学習戦略について述べる。
実世界のシナリオへのそのようなモデルの適用について検討し、いくつかの制限と研究の方向性について論じる。
論文 参考訳(メタデータ) (2022-02-26T09:25:44Z) - Meta Navigator: Search for a Good Adaptation Policy for Few-shot
Learning [113.05118113697111]
少ないショット学習は、ラベル付きデータしか持たない新しいタスクに、以前のタスクから学んだ知識を適応させることを目的としている。
少数ショット学習に関する研究文献は、大きな多様性を示し、異なるアルゴリズムは、しばしば異なる少数ショット学習シナリオで優れている。
本稿では,メタナビゲータ(Meta Navigator)について紹介する。
論文 参考訳(メタデータ) (2021-09-13T07:20:01Z) - Hybrid Dynamic-static Context-aware Attention Network for Action
Assessment in Long Videos [96.45804577283563]
本稿では,長期ビデオにおけるアクションアセスメントのための新しいハイブリットDynAmic-static Context-aware AttenTION NETwork(ACTION-NET)を提案する。
ビデオのダイナミックな情報を学習すると同時に,特定フレームにおける検出した選手の静的姿勢にも焦点をあてる。
2つのストリームの特徴を組み合わせることで、専門家が与えた地道的なスコアによって監督され、最終的なビデオスコアを後退させます。
論文 参考訳(メタデータ) (2020-08-13T15:51:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。