論文の概要: A New Action Recognition Framework for Video Highlights Summarization in
Sporting Events
- arxiv url: http://arxiv.org/abs/2012.00253v1
- Date: Tue, 1 Dec 2020 04:14:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 07:49:11.471986
- Title: A New Action Recognition Framework for Video Highlights Summarization in
Sporting Events
- Title(参考訳): スポーツイベントにおける映像ハイライト要約のための新しい行動認識フレームワーク
- Authors: Cheng Yan, Xin Li, Guoqiang Li
- Abstract要約: YOLO-v3とOpenPoseという2つの古典的オープンソース構造に基づく3レベル予測アルゴリズムを用いて,スポーツビデオストリームを自動的にクリップするフレームワークを提案する。
その結果,スポーツ映像のトレーニングデータを用いて,スポーツ活動のハイライトを正確に行うことができることがわかった。
- 参考スコア(独自算出の注目度): 9.870478438166288
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To date, machine learning for human action recognition in video has been
widely implemented in sports activities. Although some studies have been
successful in the past, precision is still the most significant concern. In
this study, we present a high-accuracy framework to automatically clip the
sports video stream by using a three-level prediction algorithm based on two
classical open-source structures, i.e., YOLO-v3 and OpenPose. It is found that
by using a modest amount of sports video training data, our methodology can
perform sports activity highlights clipping accurately. Comparing with the
previous systems, our methodology shows some advantages in accuracy. This study
may serve as a new clipping system to extend the potential applications of the
video summarization in sports field, as well as facilitates the development of
match analysis system.
- Abstract(参考訳): これまで,ビデオにおける人間の行動認識のための機械学習は,スポーツ活動において広く実装されてきた。
過去にはいくつかの研究が成功したが、精度は依然として重要な関心事である。
本研究では,2つの古典的オープンソース構造,すなわちYOLO-v3とOpenPoseに基づく3レベル予測アルゴリズムを用いて,スポーツビデオストリームを自動的にクリップする高精度フレームワークを提案する。
その結果,少量のスポーツビデオトレーニングデータを用いることで,クリッピングのスポーツ活動のハイライトを精度良く行うことができることがわかった。
従来のシステムと比較すると,精度にいくつかの利点がある。
本研究は,スポーツ分野における映像要約の応用可能性を広げる新たなクリッピングシステムとして機能すると同時に,マッチ分析システムの開発を促進する。
関連論文リスト
- Deep learning for action spotting in association football videos [64.10841325879996]
SoccerNetイニシアチブは毎年の課題を組織し、世界中の参加者が最先端のパフォーマンスを達成するために競う。
本稿では,スポーツにおけるアクションスポッティングの歴史を,2018年の課題の創出から,現在の研究・スポーツ産業における役割まで遡る。
論文 参考訳(メタデータ) (2024-10-02T07:56:15Z) - OSL-ActionSpotting: A Unified Library for Action Spotting in Sports Videos [56.393522913188704]
我々は,スポーツビデオ分析における研究と応用の合理化のために,さまざまなアクションスポッティングアルゴリズムを統合するPythonライブラリであるOSL-ActionSpottingを紹介する。
我々はOSL-ActionSpottingに3つの基本アクションスポッティング手法を統合することに成功した。
論文 参考訳(メタデータ) (2024-07-01T13:17:37Z) - Benchmarking Badminton Action Recognition with a New Fine-Grained Dataset [16.407837909069073]
高品質なバドミントン映像から得られたビデオバドミントンデータセットを紹介する。
VideoBadmintonの導入は、バドミントンアクション認識だけでなく、きめ細かいアクションを認識するためのデータセットも提供する。
論文 参考訳(メタデータ) (2024-03-19T02:52:06Z) - Building an Open-Vocabulary Video CLIP Model with Better Architectures,
Optimization and Data [102.0069667710562]
本稿では,CLIPを強力なゼロショットビデオ分類器に適応させるフレームワークであるOpen-VCLIP++を提案する。
我々は,Open-VCLIP++のトレーニングが,履歴データゼロで連続的な学習に欠かせないことを実証した。
提案手法は,広く使用されている3つの行動認識データセットを用いて評価する。
論文 参考訳(メタデータ) (2023-10-08T04:46:43Z) - Towards Active Learning for Action Spotting in Association Football
Videos [59.84375958757395]
フットボールビデオの分析は困難であり、微妙で多様な時間的パターンを特定する必要がある。
現在のアルゴリズムは、限られた注釈付きデータから学ぶ際に大きな課題に直面している。
次にアノテートすべき最も情報に富んだビデオサンプルを選択する能動的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-09T11:50:41Z) - Sports Video Analysis on Large-Scale Data [10.24207108909385]
本稿では,スポーツビデオにおける自動機械記述のモデル化について検討する。
スポーツビデオ分析のためのNBAデータセット(NSVA)を提案する。
論文 参考訳(メタデータ) (2022-08-09T16:59:24Z) - A Survey on Video Action Recognition in Sports: Datasets, Methods and
Applications [60.3327085463545]
本稿では,スポーツ分析のための映像行動認識に関する調査を行う。
サッカー、バスケットボール、バレーボール、ホッケー、フィギュアスケート、体操、卓球、ダイビング、バドミントンなど10種以上のスポーツを紹介します。
本研究では,サッカー,バスケットボール,卓球,フィギュアスケート動作認識をサポートするPaddlePaddleを用いたツールボックスを開発した。
論文 参考訳(メタデータ) (2022-06-02T13:19:36Z) - Sports Video: Fine-Grained Action Detection and Classification of Table
Tennis Strokes from Videos for MediaEval 2021 [0.0]
このタスクは、ビデオからのきめ細かいアクション検出と分類に取り組む。
主に卓球の試合の記録に焦点が当てられている。
本研究は,スポーツのパフォーマンスを解析するために,スポーツコーチや選手のためのツールを作成することを目的としている。
論文 参考訳(メタデータ) (2021-12-16T10:17:59Z) - Hybrid Dynamic-static Context-aware Attention Network for Action
Assessment in Long Videos [96.45804577283563]
本稿では,長期ビデオにおけるアクションアセスメントのための新しいハイブリットDynAmic-static Context-aware AttenTION NETwork(ACTION-NET)を提案する。
ビデオのダイナミックな情報を学習すると同時に,特定フレームにおける検出した選手の静的姿勢にも焦点をあてる。
2つのストリームの特徴を組み合わせることで、専門家が与えた地道的なスコアによって監督され、最終的なビデオスコアを後退させます。
論文 参考訳(メタデータ) (2020-08-13T15:51:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。