論文の概要: A Multi-stage deep architecture for summary generation of soccer videos
- arxiv url: http://arxiv.org/abs/2205.00694v1
- Date: Mon, 2 May 2022 07:26:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 13:56:32.509367
- Title: A Multi-stage deep architecture for summary generation of soccer videos
- Title(参考訳): サッカー映像の要約生成のための多段深層構造
- Authors: Melissa Sanabria, Fr\'ed\'eric Precioso, Pierre-Alexandre Mattei, and
Thomas Menguy
- Abstract要約: 本稿では,音声メタデータとイベントメタデータの両方を利用して,サッカーの試合の要約を生成する手法を提案する。
その結果,提案手法は一致の動作を検出し,どの動作が要約に属するべきかを識別し,複数の候補要約を提案する。
- 参考スコア(独自算出の注目度): 11.41978608521222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video content is present in an ever-increasing number of fields, both
scientific and commercial. Sports, particularly soccer, is one of the
industries that has invested the most in the field of video analytics, due to
the massive popularity of the game and the emergence of new markets. Previous
state-of-the-art methods on soccer matches video summarization rely on
handcrafted heuristics to generate summaries which are poorly generalizable,
but these works have yet proven that multiple modalities help detect the best
actions of the game. On the other hand, machine learning models with higher
generalization potential have entered the field of summarization of
general-purpose videos, offering several deep learning approaches. However,
most of them exploit content specificities that are not appropriate for sport
whole-match videos. Although video content has been for many years the main
source for automatizing knowledge extraction in soccer, the data that records
all the events happening on the field has become lately very important in
sports analytics, since this event data provides richer context information and
requires less processing. We propose a method to generate the summary of a
soccer match exploiting both the audio and the event metadata. The results show
that our method can detect the actions of the match, identify which of these
actions should belong to the summary and then propose multiple candidate
summaries which are similar enough but with relevant variability to provide
different options to the final editor. Furthermore, we show the generalization
capability of our work since it can transfer knowledge between datasets from
different broadcasting companies, different competitions, acquired in different
conditions, and corresponding to summaries of different lengths
- Abstract(参考訳): ビデオコンテンツは、科学と商業の両方において、ますます増え続ける分野に存在している。
スポーツ、特にサッカーは、ゲームの人気の高さと新しい市場の出現により、ビデオ分析分野に最も投資している産業の1つである。
サッカーの試合におけるこれまでの最先端の手法は、手作りのヒューリスティックに頼って一般化が不十分な要約を生成するが、これらの研究は、複数のモダリティがゲームの最高のアクションを検出するのに役立つことを証明している。
一方、一般化可能性の高い機械学習モデルは、汎用ビデオの要約の分野に入り、いくつかのディープラーニングアプローチを提供している。
しかし、そのほとんどがスポーツ全試合ビデオに適さないコンテンツの特質を生かしている。
サッカーにおける知識抽出を自動化するための主要なソースはビデオコンテンツであるが、スポーツ分析において、このイベントデータがより豊かなコンテキスト情報を提供し、より少ない処理を必要とするため、現場で発生したすべてのイベントを記録するデータは、近年非常に重要になっている。
本稿では,音声とイベントメタデータを併用したサッカーの試合サマリーを生成する手法を提案する。
その結果,提案手法はマッチの動作を検知し,どのアクションが要約に属するべきかを識別し,類似するが,最終エディタに異なるオプションを提供するための関連のある複数の候補要約を提案する。
さらに,異なる放送会社のデータセット間で知識を伝達し,異なるコンペを行い,異なる条件で獲得し,異なる長さの要約に対応するため,作業の一般化能力を示す。
関連論文リスト
- Deep learning for action spotting in association football videos [64.10841325879996]
SoccerNetイニシアチブは毎年の課題を組織し、世界中の参加者が最先端のパフォーマンスを達成するために競う。
本稿では,スポーツにおけるアクションスポッティングの歴史を,2018年の課題の創出から,現在の研究・スポーツ産業における役割まで遡る。
論文 参考訳(メタデータ) (2024-10-02T07:56:15Z) - Deep Understanding of Soccer Match Videos [20.783415560412003]
サッカーは世界中で最も人気のあるスポーツの1つであり、主要な試合で頻繁に放送される。
本システムでは, サッカーボール, 選手, 審判などの重要な物体を検知できる。
また、プレイヤーとボールの動きを追跡し、プレイヤーの番号を認識し、シーンを分類し、ゴールキックのようなハイライトを識別する。
論文 参考訳(メタデータ) (2024-07-11T05:54:13Z) - SoccerNet-Echoes: A Soccer Game Audio Commentary Dataset [46.60191376520379]
本稿では,サッカーゲーム放送からの音声コメントの自動書き起こしによる,サッカーネットデータセットの拡張であるFocoNet-Echoesについて述べる。
視覚的および聴覚的コンテンツとともにテキストデータを組み込むことで、サッカーゲームのダイナミクスを捉えるアルゴリズムを開発するための総合的なリソースとなることを目的としている。
論文 参考訳(メタデータ) (2024-05-12T18:25:38Z) - SoccerKDNet: A Knowledge Distillation Framework for Action Recognition
in Soccer Videos [3.1583465114791105]
本研究では,Kinetics400データセット上で事前学習した新しいエンド・ツー・エンドの知識蒸留に基づくトランスファーラーニングネットワークを提案する。
また,448本のビデオを含むサッカーDB1という新しいデータセットを導入し,サッカーをプレーする選手の4つのクラスで構成された。
論文 参考訳(メタデータ) (2023-07-15T10:43:24Z) - GOAL: A Challenging Knowledge-grounded Video Captioning Benchmark for
Real-time Soccer Commentary Generation [75.60413443783953]
我々は,KGVC(Knowledge-grounded Video Captioning)として新たなタスク設定を提案するための,8.9k以上のサッカービデオクリップ,22kの文,42kの知識トリプルのベンチマークであるGOALを提案する。
私たちのデータとコードはhttps://github.com/THU-KEG/goal.orgで公開されています。
論文 参考訳(メタデータ) (2023-03-26T08:43:36Z) - A Survey on Video Action Recognition in Sports: Datasets, Methods and
Applications [60.3327085463545]
本稿では,スポーツ分析のための映像行動認識に関する調査を行う。
サッカー、バスケットボール、バレーボール、ホッケー、フィギュアスケート、体操、卓球、ダイビング、バドミントンなど10種以上のスポーツを紹介します。
本研究では,サッカー,バスケットボール,卓球,フィギュアスケート動作認識をサポートするPaddlePaddleを用いたツールボックスを開発した。
論文 参考訳(メタデータ) (2022-06-02T13:19:36Z) - SoccerNet-Tracking: Multiple Object Tracking Dataset and Benchmark in
Soccer Videos [62.686484228479095]
本稿では,各30の200列からなる複数物体追跡のための新しいデータセットを提案する。
データセットは、バウンディングボックスとトラックレットIDで完全に注釈付けされている。
分析の結果,サッカービデオにおける複数の選手,審判,ボール追跡が解決されるには程遠いことがわかった。
論文 参考訳(メタデータ) (2022-04-14T12:22:12Z) - VALUE: A Multi-Task Benchmark for Video-and-Language Understanding
Evaluation [124.02278735049235]
VALUEベンチマークは、幅広いビデオジャンル、ビデオの長さ、データボリューム、タスクの難易度をカバーすることを目的としている。
大規模なVidL事前学習による各種ベースライン法の評価を行った。
我々の最高のモデルと人間のパフォーマンスの間の大きなギャップは、先進的なVidLモデルの将来の研究を要求する。
論文 参考訳(メタデータ) (2021-06-08T18:34:21Z) - Video-based Analysis of Soccer Matches [15.328109388727997]
本論文では,サッカーの試合の映像映像解析に用いる手法を総合的に概観し,分類する。
オープンリサーチの課題を特定し、議論し、アナリストがより効率的に勝利戦略を展開できるようにする。
論文 参考訳(メタデータ) (2021-05-11T09:01:02Z) - SoccerNet-v2: A Dataset and Benchmarks for Holistic Understanding of
Broadcast Soccer Videos [71.72665910128975]
SoccerNet-v2 は SoccerNet ビデオデータセット用の手動アノテーションの大規模なコーパスである。
SoccerNetの500の未トリミングサッカービデオの中で、約300万のアノテーションをリリースしています。
サッカーの領域における現在のタスクを拡張し、アクションスポッティング、カメラショットセグメンテーション、境界検出を含む。
論文 参考訳(メタデータ) (2020-11-26T16:10:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。