論文の概要: Going for GOAL: A Resource for Grounded Football Commentaries
- arxiv url: http://arxiv.org/abs/2211.04534v1
- Date: Tue, 8 Nov 2022 20:04:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 16:13:11.616458
- Title: Going for GOAL: A Resource for Grounded Football Commentaries
- Title(参考訳): ゴールを目指す - 地上サッカーのコメンテータのためのリソース
- Authors: Alessandro Suglia, Jos\'e Lopes, Emanuele Bastianelli, Andrea Vanzo,
Shubham Agarwal, Malvina Nikandrou, Lu Yu, Ioannis Konstas, Verena Rieser
- Abstract要約: 本稿では,GrOunded footbAlLコメンタリー(GOAL)について紹介する。
本稿では,フレームリオーダー,モーメント検索,ライブコメンタリー検索,プレイバイプレイのライブコメンタリー生成といったタスクに対して,最先端のベースラインを提供する。
その結果,ほとんどのタスクにおいてSOTAモデルは合理的に機能することがわかった。
- 参考スコア(独自算出の注目度): 66.10040637644697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent video+language datasets cover domains where the interaction is highly
structured, such as instructional videos, or where the interaction is scripted,
such as TV shows. Both of these properties can lead to spurious cues to be
exploited by models rather than learning to ground language. In this paper, we
present GrOunded footbAlL commentaries (GOAL), a novel dataset of football (or
`soccer') highlights videos with transcribed live commentaries in English. As
the course of a game is unpredictable, so are commentaries, which makes them a
unique resource to investigate dynamic language grounding. We also provide
state-of-the-art baselines for the following tasks: frame reordering, moment
retrieval, live commentary retrieval and play-by-play live commentary
generation. Results show that SOTA models perform reasonably well in most
tasks. We discuss the implications of these results and suggest new tasks for
which GOAL can be used. Our codebase is available at:
https://gitlab.com/grounded-sport-convai/goal-baselines.
- Abstract(参考訳): 最近のビデオ+言語データセットは、教育ビデオのような対話が高度に構造化された領域や、テレビ番組のような対話がスクリプト化された領域をカバーしている。
これらの特性はどちらも、基礎言語を学ぶのではなく、モデルによって悪用されるきっかけとなる可能性がある。
本稿では,サッカーの新しいデータセットであるgoal(grounded football commentaries)を紹介する。
ゲームの行程は予測できないため、コメントも用意されているため、動的言語の接地を調査するためのユニークなリソースとなっている。
また,フレームの再注文,モーメント検索,ライブコメント検索,プレイバイプレイのライブコメント生成といったタスクに対して,最先端のベースラインを提供する。
その結果, sotaモデルはほとんどのタスクで適度に機能することがわかった。
これらの結果がもたらす意味を考察し,GOALを利用できる新しいタスクを提案する。
私たちのコードベースは、https://gitlab.com/grounded-sport-convai/goal-baselinesで利用可能です。
関連論文リスト
- MatchTime: Towards Automatic Soccer Game Commentary Generation [52.431010585268865]
観客の視聴体験を改善するために,自動サッカーゲーム解説モデルの構築を検討する。
まず、既存のデータセットでよく見られるビデオテキストのミスアライメントを観察し、49試合のタイムスタンプを手動でアノテートする。
第2に,既存のデータセットを自動的に修正・フィルタリングするマルチモーダル時間アライメントパイプラインを提案する。
第3に、キュレートされたデータセットに基づいて、MatchVoiceという自動コメント生成モデルをトレーニングします。
論文 参考訳(メタデータ) (2024-06-26T17:57:25Z) - GOAL: A Challenging Knowledge-grounded Video Captioning Benchmark for
Real-time Soccer Commentary Generation [75.60413443783953]
我々は,KGVC(Knowledge-grounded Video Captioning)として新たなタスク設定を提案するための,8.9k以上のサッカービデオクリップ,22kの文,42kの知識トリプルのベンチマークであるGOALを提案する。
私たちのデータとコードはhttps://github.com/THU-KEG/goal.orgで公開されています。
論文 参考訳(メタデータ) (2023-03-26T08:43:36Z) - Commentary Generation from Data Records of Multiplayer Strategy Esports Game [21.133690853111133]
我々は、人気のあるエスポートゲームであるLeague of Legendsから構造化されたデータと注釈をペアリングする大規模なデータセットを構築します。
次に、Transformerベースのモデルを評価し、構造化データレコードからゲーム注釈を生成する。
データ・ツー・テキスト・ジェネレーションのコミュニティにおける潜在的研究を促進するために、データセットをリリースします。
論文 参考訳(メタデータ) (2022-12-21T11:23:31Z) - GOAL: Towards Benchmarking Few-Shot Sports Game Summarization [0.3683202928838613]
GOALは,イングランド初のスポーツゲーム要約データセットである。
GOALには103のコメントとニュースのペアがあり、それぞれ2724.9語と476.3語である。
論文 参考訳(メタデータ) (2022-07-18T14:29:18Z) - Unsupervised Temporal Video Grounding with Deep Semantic Clustering [58.95918952149763]
時間的ビデオグラウンドティングは、所定の文クエリに従って、ビデオ内のターゲットセグメントをローカライズすることを目的としている。
本稿では,ペアアノテーションを使わずにビデオグラウンドモデルが学べるかどうかを考察する。
ペア化された監視が存在しないことを考慮し,クエリ集合全体からすべての意味情報を活用するための新しいDeep Semantic Clustering Network (DSCNet)を提案する。
論文 参考訳(メタデータ) (2022-01-14T05:16:33Z) - SoccerNet-v2: A Dataset and Benchmarks for Holistic Understanding of
Broadcast Soccer Videos [71.72665910128975]
SoccerNet-v2 は SoccerNet ビデオデータセット用の手動アノテーションの大規模なコーパスである。
SoccerNetの500の未トリミングサッカービデオの中で、約300万のアノテーションをリリースしています。
サッカーの領域における現在のタスクを拡張し、アクションスポッティング、カメラショットセグメンテーション、境界検出を含む。
論文 参考訳(メタデータ) (2020-11-26T16:10:16Z) - Watch and Learn: Mapping Language and Noisy Real-world Videos with
Self-supervision [54.73758942064708]
我々は、明示的なアノテーションを使わずに、文章と騒々しいビデオスニペットのマッピングを学習することで、視覚と自然言語を理解するように機械に教える。
トレーニングと評価のために、多数のオンラインビデオとサブタイトルを含む新しいデータセットApartmenTourをコントリビュートする。
論文 参考訳(メタデータ) (2020-11-19T03:43:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。