論文の概要: Towards Active Learning for Action Spotting in Association Football
Videos
- arxiv url: http://arxiv.org/abs/2304.04220v1
- Date: Sun, 9 Apr 2023 11:50:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 17:02:51.727482
- Title: Towards Active Learning for Action Spotting in Association Football
Videos
- Title(参考訳): アソシエーションフットボールビデオにおけるアクションスポッティングのアクティブラーニングに向けて
- Authors: Silvio Giancola, Anthony Cioppa, Julia Georgieva, Johsan Billingham,
Andreas Serner, Kerry Peek, Bernard Ghanem, Marc Van Droogenbroeck
- Abstract要約: フットボールビデオの分析は困難であり、微妙で多様な時間的パターンを特定する必要がある。
現在のアルゴリズムは、限られた注釈付きデータから学ぶ際に大きな課題に直面している。
次にアノテートすべき最も情報に富んだビデオサンプルを選択する能動的学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 59.84375958757395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Association football is a complex and dynamic sport, with numerous actions
occurring simultaneously in each game. Analyzing football videos is challenging
and requires identifying subtle and diverse spatio-temporal patterns. Despite
recent advances in computer vision, current algorithms still face significant
challenges when learning from limited annotated data, lowering their
performance in detecting these patterns. In this paper, we propose an active
learning framework that selects the most informative video samples to be
annotated next, thus drastically reducing the annotation effort and
accelerating the training of action spotting models to reach the highest
accuracy at a faster pace. Our approach leverages the notion of uncertainty
sampling to select the most challenging video clips to train on next, hastening
the learning process of the algorithm. We demonstrate that our proposed active
learning framework effectively reduces the required training data for accurate
action spotting in football videos. We achieve similar performances for action
spotting with NetVLAD++ on SoccerNet-v2, using only one-third of the dataset,
indicating significant capabilities for reducing annotation time and improving
data efficiency. We further validate our approach on two new datasets that
focus on temporally localizing actions of headers and passes, proving its
effectiveness across different action semantics in football. We believe our
active learning framework for action spotting would support further
applications of action spotting algorithms and accelerate annotation campaigns
in the sports domain.
- Abstract(参考訳): アソシエーションフットボールは複雑でダイナミックなスポーツであり、各試合で多数のアクションが同時に行われる。
サッカー動画の分析は困難であり、微妙で多様な時空間パターンを特定する必要がある。
コンピュータビジョンの最近の進歩にもかかわらず、現在のアルゴリズムは、限られた注釈付きデータから学ぶ際にも大きな課題に直面し、これらのパターンを検出するパフォーマンスを低下させる。
本稿では,次にアノテートすべき最も有益なビデオサンプルを選択するアクティブラーニングフレームワークを提案する。これにより,アノテーションの労力を劇的に削減し,アクションスポッティングモデルのトレーニングを高速化し,高い精度を高速に達成する。
提案手法では,不確実性サンプリングという概念を生かして,次に学習すべき最も難しいビデオクリップを選択し,アルゴリズムの学習プロセスを早める。
提案するアクティブラーニングフレームワークは,サッカー映像における正確な動作スポッティングに必要なトレーニングデータを効果的に削減できることを実証する。
soccernet-v2でのnetvlad++によるアクションスポッティングでは、データセットの3分の1しか使用せず、アノテーション時間を短縮し、データ効率を向上させる重要な能力を示している。
我々はさらに,ヘッダとパスの行動の時間的局所化に着目した2つの新しいデータセットに対するアプローチを検証し,サッカーにおける異なる動作セマンティクスにまたがる効果を証明した。
アクションスポッティングのためのアクティブな学習フレームワークは、アクションスポッティングアルゴリズムのさらなる応用をサポートし、スポーツ領域でのアノテーションキャンペーンを加速すると思います。
関連論文リスト
- Deep learning for action spotting in association football videos [64.10841325879996]
SoccerNetイニシアチブは毎年の課題を組織し、世界中の参加者が最先端のパフォーマンスを達成するために競う。
本稿では,スポーツにおけるアクションスポッティングの歴史を,2018年の課題の創出から,現在の研究・スポーツ産業における役割まで遡る。
論文 参考訳(メタデータ) (2024-10-02T07:56:15Z) - Semi-supervised Active Learning for Video Action Detection [8.110693267550346]
我々はラベル付きデータとラベルなしデータの両方を利用する、新しい半教師付きアクティブラーニング手法を開発した。
提案手法は,UCF-24-101,JHMDB-21,Youtube-VOSの3種類のベンチマークデータセットに対して評価を行った。
論文 参考訳(メタデータ) (2023-12-12T11:13:17Z) - Spotting Temporally Precise, Fine-Grained Events in Video [23.731838969934206]
ビデオ中に時間的に正確できめ細かなイベントを見つけるタスクを導入する。
モデルは、フルタイムのアクションスケールについてグローバルに推論し、微妙なフレーム間の外観と動きの違いを特定するために、ローカルで行う必要がある。
E2E-Spotは、精密なスポッティングタスクでよく機能し、1つのGPUで迅速にトレーニングできる、コンパクトでエンドツーエンドのモデルである。
論文 参考訳(メタデータ) (2022-07-20T22:15:07Z) - Self-Regulated Learning for Egocentric Video Activity Anticipation [147.9783215348252]
自己制御学習(SRL)は、中間表現を連続的に制御し、現在のタイムスタンプのフレームにおける新しい情報を強調する表現を作り出すことを目的としている。
SRLは2つのエゴセントリックなビデオデータセットと2つの第三者のビデオデータセットにおいて、既存の最先端技術よりも大幅に優れています。
論文 参考訳(メタデータ) (2021-11-23T03:29:18Z) - RSPNet: Relative Speed Perception for Unsupervised Video Representation
Learning [100.76672109782815]
本研究では,未ラベル映像のみから動作特徴と外観特徴の両方を学習するための教師なし映像表現学習について検討する。
動作と外観の両方をうまくモデル化するために、適切な自己指導タスクを構築することは困難である。
再生速度を知覚し、2つのビデオクリップ間の相対速度をラベルとして利用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-27T16:42:50Z) - Hybrid Dynamic-static Context-aware Attention Network for Action
Assessment in Long Videos [96.45804577283563]
本稿では,長期ビデオにおけるアクションアセスメントのための新しいハイブリットDynAmic-static Context-aware AttenTION NETwork(ACTION-NET)を提案する。
ビデオのダイナミックな情報を学習すると同時に,特定フレームにおける検出した選手の静的姿勢にも焦点をあてる。
2つのストリームの特徴を組み合わせることで、専門家が与えた地道的なスコアによって監督され、最終的なビデオスコアを後退させます。
論文 参考訳(メタデータ) (2020-08-13T15:51:42Z) - Event detection in coarsely annotated sports videos via parallel multi
receptive field 1D convolutions [14.30009544149561]
スポーツビデオ分析のような問題では、正確なフレームレベルのアノテーションと正確なイベント時間を得るのは難しい。
粗い注釈付きビデオにおけるイベント検出の課題を提案する。
本稿では,提案課題に対する多層時間畳み込みネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-04-13T19:51:25Z) - ZSTAD: Zero-Shot Temporal Activity Detection [107.63759089583382]
本研究では,ゼロショット時間的活動検出(ZSTAD)と呼ばれる新たなタスク設定を提案する。
このソリューションのアーキテクチャとして,R-C3Dに基づくエンドツーエンドのディープネットワークを設計する。
THUMOS14とCharadesデータセットの両方の実験は、目に見えない活動を検出するという点で有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-03-12T02:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。