論文の概要: Detecting key Soccer match events to create highlights using Computer
Vision
- arxiv url: http://arxiv.org/abs/2204.02573v1
- Date: Wed, 6 Apr 2022 04:28:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 13:08:54.447943
- Title: Detecting key Soccer match events to create highlights using Computer
Vision
- Title(参考訳): キーサッカーマッチイベントの検出とコンピュータビジョンによるハイライト作成
- Authors: Narayana Darapaneni, Prashant Kumar, Nikhil Malhotra, Vigneswaran
Sundaramurthy, Abhaya Thakur, Shivam Chauhan, Krishna Chaitanya Thangeda,
Anwesh Reddy Paduri
- Abstract要約: 私たちは,マッチビデオのハイライトを作成したいスポーツとして,サッカー(サッカー)を選択しました。
我々は、Faster RCNNとYoloV5アーキテクチャに基づいたモデルを構築しました。
ベースモデルとしてResNet50を使用した高速RCNNでは、標準モデルとしてVGG16に比べて95.5%のクラス精度が向上した。
- 参考スコア(独自算出の注目度): 1.5853060650283204
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The research and data science community has been fascinated with the
development of automatic systems for the detection of key events in a video.
Special attention in this field is given to sports video analytics which could
help in identifying key events during a match and help in preparing a strategy
for the games going forward. For this paper, we have chosen Football (soccer)
as a sport where we would want to create highlights for a given match video,
through a computer vision model that aims to identify important events in a
Soccer match to create highlights of the match. We built the models based on
Faster RCNN and YoloV5 architectures and noticed that for the amount of data we
used for training Faster RCNN did better than YoloV5 in detecting the events in
the match though it was much slower. Within Faster RCNN using ResNet50 as a
base model gave a better class accuracy of 95.5% as compared to 92% with VGG16
as base model completely outperforming YoloV5 for our training dataset. We
tested with an original video of size 23 minutes and our model could reduce it
to 4:50 minutes of highlights capturing almost all important events in the
match.
- Abstract(参考訳): 研究とデータサイエンスのコミュニティは、ビデオ中の重要なイベントを検出する自動システムの開発に魅了されてきた。
この分野で特に注目されるのは、試合中の重要な出来事を特定するのに役立ち、今後のゲーム戦略の準備に役立てることができるスポーツビデオ分析である。
本稿では,サッカーの試合における重要なイベントを特定し,試合のハイライトを作成することを目的としたコンピュータビジョンモデルを用いて,試合映像のハイライトを作成したいスポーツとして,サッカー(サッカー)を選択した。
私たちは、より高速なrcnnとyolov5アーキテクチャに基づいたモデルを構築しました。
ベースモデルとしてResNet50を使用した高速RCNNでは、トレーニングデータセットでは、VGG16の92%に比べて、クラス精度が95.5%向上した。
23分間のオリジナルビデオでテストし、私たちのモデルはマッチ中のほぼすべての重要なイベントをキャプチャする4:50分のハイライトに縮小することができました。
関連論文リスト
- Deep learning for action spotting in association football videos [64.10841325879996]
SoccerNetイニシアチブは毎年の課題を組織し、世界中の参加者が最先端のパフォーマンスを達成するために競う。
本稿では,スポーツにおけるアクションスポッティングの歴史を,2018年の課題の創出から,現在の研究・スポーツ産業における役割まで遡る。
論文 参考訳(メタデータ) (2024-10-02T07:56:15Z) - MatchTime: Towards Automatic Soccer Game Commentary Generation [52.431010585268865]
観客の視聴体験を改善するために,自動サッカーゲーム解説モデルの構築を検討する。
まず、既存のデータセットでよく見られるビデオテキストのミスアライメントを観察し、49試合のタイムスタンプを手動でアノテートする。
第2に,既存のデータセットを自動的に修正・フィルタリングするマルチモーダル時間アライメントパイプラインを提案する。
第3に、キュレートされたデータセットに基づいて、MatchVoiceという自動コメント生成モデルをトレーニングします。
論文 参考訳(メタデータ) (2024-06-26T17:57:25Z) - Towards Active Learning for Action Spotting in Association Football
Videos [59.84375958757395]
フットボールビデオの分析は困難であり、微妙で多様な時間的パターンを特定する必要がある。
現在のアルゴリズムは、限られた注釈付きデータから学ぶ際に大きな課題に直面している。
次にアノテートすべき最も情報に富んだビデオサンプルを選択する能動的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-09T11:50:41Z) - CLIP-ReIdent: Contrastive Training for Player Re-Identification [0.0]
事前学習したCLIPモデルのゼロショット性能をプレイヤー再識別領域に転送できるかどうかを検討する。
これまでの研究とは異なり、私たちのアプローチは完全にクラスに依存しず、大規模な事前トレーニングの恩恵を受けています。
論文 参考訳(メタデータ) (2023-03-21T13:55:27Z) - Event Detection in Football using Graph Convolutional Networks [0.0]
ビデオシーケンスの各フレームにおけるプレーヤとボールをグラフとしてモデル化する方法を示す。
本稿では,各アクションの周囲に存在する時間的コンテキストをモデル化するためのグラフ畳み込み層とプール法について述べる。
論文 参考訳(メタデータ) (2023-01-24T14:52:54Z) - A Graph-Based Method for Soccer Action Spotting Using Unsupervised
Player Classification [75.93186954061943]
アクションスポッティングには、ゲームのダイナミクス、イベントの複雑さ、ビデオシーケンスのバリエーションを理解することが含まれる。
本研究では, (a) 選手, 審判, ゴールキーパーをグラフのノードとして識別し, および (b) 時間的相互作用をグラフのシーケンスとしてモデル化することによって, 前者に焦点を当てる。
プレーヤ識別タスクでは,他のモダリティと組み合わせることで,平均mAPの57.83%の総合的な性能が得られる。
論文 参考訳(メタデータ) (2022-11-22T15:23:53Z) - SoccerNet-Tracking: Multiple Object Tracking Dataset and Benchmark in
Soccer Videos [62.686484228479095]
本稿では,各30の200列からなる複数物体追跡のための新しいデータセットを提案する。
データセットは、バウンディングボックスとトラックレットIDで完全に注釈付けされている。
分析の結果,サッカービデオにおける複数の選手,審判,ボール追跡が解決されるには程遠いことがわかった。
論文 参考訳(メタデータ) (2022-04-14T12:22:12Z) - Feature Combination Meets Attention: Baidu Soccer Embeddings and
Transformer based Temporal Detection [3.7709686875144337]
本稿では,サッカー中継ビデオにおけるイベントの発生状況と発生状況を検出するための2段階のパラダイムを提案する。
具体的には,サッカーデータ上に複数のアクション認識モデルを微調整し,ハイレベルなセマンティックな特徴を抽出する。
このアプローチは、サッカーネットv2チャレンジにおける2つのタスク、すなわちアクションスポッティングとリプレイグラウンドにおいて、最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2021-06-28T08:00:21Z) - SoccerNet-v2: A Dataset and Benchmarks for Holistic Understanding of
Broadcast Soccer Videos [71.72665910128975]
SoccerNet-v2 は SoccerNet ビデオデータセット用の手動アノテーションの大規模なコーパスである。
SoccerNetの500の未トリミングサッカービデオの中で、約300万のアノテーションをリリースしています。
サッカーの領域における現在のタスクを拡張し、アクションスポッティング、カメラショットセグメンテーション、境界検出を含む。
論文 参考訳(メタデータ) (2020-11-26T16:10:16Z) - Event detection in coarsely annotated sports videos via parallel multi
receptive field 1D convolutions [14.30009544149561]
スポーツビデオ分析のような問題では、正確なフレームレベルのアノテーションと正確なイベント時間を得るのは難しい。
粗い注釈付きビデオにおけるイベント検出の課題を提案する。
本稿では,提案課題に対する多層時間畳み込みネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-04-13T19:51:25Z) - Unsupervised Temporal Feature Aggregation for Event Detection in
Unstructured Sports Videos [10.230408415438966]
任意のカメラアングルを持つ非構造化環境を対象としたスポーツビデオにおけるイベント検出事例について検討した。
我々は、非構造化設定におけるプレイヤーの教師なし識別と、任意の射撃角度によるバリエーションを示すために訓練されたモデルの一般化の2つの主要な問題を同定し、解決する。
論文 参考訳(メタデータ) (2020-02-19T10:24:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。