論文の概要: Technical Report for SoccerNet Challenge 2022 -- Replay Grounding Task
- arxiv url: http://arxiv.org/abs/2411.00881v1
- Date: Thu, 31 Oct 2024 13:58:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:40:11.028066
- Title: Technical Report for SoccerNet Challenge 2022 -- Replay Grounding Task
- Title(参考訳): SoccerNet Challenge 2022のテクニカルレポート -- リプレイグラウンドタスク
- Authors: Shimin Chen, Wei Li, Jiaming Chu, Chen Chen, Chen Zhang, Yandong Guo,
- Abstract要約: 我々はリプレイグラウンド問題をビデオアクション位置問題に変換する。
我々は,時間的動作検出のために提案した統合ネットワークFaster-TADを適用し,リプレイグラウンドの結果を得る。
- 参考スコア(独自算出の注目度): 20.7675851464875
- License:
- Abstract: In order to make full use of video information, we transform the replay grounding problem into a video action location problem. We apply a unified network Faster-TAD proposed by us for temporal action detection to get the results of replay grounding. Finally, by observing the data distribution of the training data, we refine the output of the model to get the final submission.
- Abstract(参考訳): 映像情報をフル活用するために,リプレイグラウンド問題をビデオアクション位置問題に変換する。
我々は,時間的動作検出のために提案した統合ネットワークFaster-TADを適用し,リプレイグラウンドの結果を得る。
最後に、トレーニングデータのデータ分布を観察することにより、モデルの出力を洗練し、最終的な結果を得る。
関連論文リスト
- Grounded-VideoLLM: Sharpening Fine-grained Temporal Grounding in Video Large Language Models [53.235170710385006]
我々は,特定の映像モーメントをきめ細かな方法で知覚・推論できる新しいビデオLLMであるGrounded-VideoLLMを紹介した。
我々は,(1)フレーム間の関係を符号化する追加の時間的ストリームと(2)特定の時間的知識に富んだ離散的な時間的トークンを組み込むことで,モデルを洗練する。
実験では, 時間文の接地, ビデオキャプションの密接化, ビデオQAの接地といった, きめ細かい接地作業に優れていた。
論文 参考訳(メタデータ) (2024-10-04T10:04:37Z) - Dense Video Object Captioning from Disjoint Supervision [77.47084982558101]
本稿では,高密度ビデオオブジェクトキャプションのための新しいタスクとモデルを提案する。
このタスクは、ビデオにおける空間的および時間的局所化を統一する。
我々は、この新しいタスクの強力なベースラインにおいて、我々のモデルがどのように改善されているかを示す。
論文 参考訳(メタデータ) (2023-06-20T17:57:23Z) - SoccerNet 2022 Challenges Results [167.6158475931228]
SoccerNet 2022 チャレンジ(英語: SoccerNet 2022 Challenge)は、サッカーネットチームが主催する2回目のビデオ理解チャレンジである。
2022年、課題は6つの視覚ベースのタスクで構成された。
昨年の課題と比較すると、タスク(1-2)は、より厳密な時間的アキュラシーを検討するために評価基準を再定義し、基礎となるデータやアノテーションを含むタスク(3-6)は新しくなった。
論文 参考訳(メタデータ) (2022-10-05T16:12:50Z) - SoccerNet-Tracking: Multiple Object Tracking Dataset and Benchmark in
Soccer Videos [62.686484228479095]
本稿では,各30の200列からなる複数物体追跡のための新しいデータセットを提案する。
データセットは、バウンディングボックスとトラックレットIDで完全に注釈付けされている。
分析の結果,サッカービデオにおける複数の選手,審判,ボール追跡が解決されるには程遠いことがわかった。
論文 参考訳(メタデータ) (2022-04-14T12:22:12Z) - Explore and Match: End-to-End Video Grounding with Transformer [25.515031058989482]
我々は、設定された予測問題としてビデオグラウンドを定式化し、エンドツーエンドのトレーニング可能なビデオグラウンド変換器(VidGTR)を設計する。
VidGTRは、集合予測にリッチなコンテキスト化と並列デコーディングのアーキテクチャ的長所を利用することができる。
本稿では,ビデオグラウンド方式の2つのストリームをシームレスに統一することを目的とした,ビデオグラウンドのための探索とマッチングという新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-01-25T08:26:48Z) - End-to-End Dense Video Grounding via Parallel Regression [30.984657885692553]
ビデオグラウンドイングは、言語クエリが与えられた未トリミングビデオに対応するビデオモーメントをローカライズすることを目的としている。
本稿では,Transformer-alike Architecture (PRVG) を再構成することで,エンドツーエンドの並列デコーディングパラダイムを提案する。
設計の単純さのおかげで、私たちのPRVGフレームワークは異なるテストスキームに適用できます。
論文 参考訳(メタデータ) (2021-09-23T10:03:32Z) - EVOQUER: Enhancing Temporal Grounding with Video-Pivoted BackQuery
Generation [10.799980374791316]
時間的接地は、自然言語クエリ入力に対応するビデオクリップの時間間隔を予測することを目的としている。
本稿では,既存のテキスト・ビデオ・グラウンドリングモデルとビデオ支援クエリ生成ネットワークを組み合わせた時間的グラウンドディングフレームワークであるEVOQUERを提案する。
論文 参考訳(メタデータ) (2021-09-10T00:30:36Z) - Camera Calibration and Player Localization in SoccerNet-v2 and
Investigation of their Representations for Action Spotting [61.92132798351982]
大規模サッカーネットデータセット上で,最近のニューラルネットワークアーキテクチャにおいて,強力な商用キャリブレーションツールを蒸留する。
そこで我々は,キャリブレーション結果とプレイヤーのローカライゼーションの3つの方法を提案する。
soccernet-v2のアクションスポッティングタスクに、現在のベストアーキテクチャ内でこれらの表現を利用する。
論文 参考訳(メタデータ) (2021-04-19T14:21:05Z) - SoccerNet-v2: A Dataset and Benchmarks for Holistic Understanding of
Broadcast Soccer Videos [71.72665910128975]
SoccerNet-v2 は SoccerNet ビデオデータセット用の手動アノテーションの大規模なコーパスである。
SoccerNetの500の未トリミングサッカービデオの中で、約300万のアノテーションをリリースしています。
サッカーの領域における現在のタスクを拡張し、アクションスポッティング、カメラショットセグメンテーション、境界検出を含む。
論文 参考訳(メタデータ) (2020-11-26T16:10:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。