論文の概要: Fusing Motion Patterns and Key Visual Information for Semantic Event
Recognition in Basketball Videos
- arxiv url: http://arxiv.org/abs/2007.06288v1
- Date: Mon, 13 Jul 2020 10:15:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 00:06:50.575778
- Title: Fusing Motion Patterns and Key Visual Information for Semantic Event
Recognition in Basketball Videos
- Title(参考訳): バスケットボール映像におけるセマンティックイベント認識のためのハウジング動作パターンとキービジュアル情報
- Authors: Lifang Wu, Zhou Yang, Qi Wang, Meng Jian, Boxuan Zhao, Junchi Yan,
Chang Wen Chen
- Abstract要約: バスケットボールビデオのセマンティックイベント認識のために,グローバル・ローカル・モーション・パターン(MP)とキー視覚情報(KVI)を融合する手法を提案する。
カメラ調整の本質的特性に基づいて, 混合運動から大域的な動きを推定するアルゴリズムを提案する。
グローバル・ローカル・モーション・パターンを分離した2ストリーム3D CNNフレームワークを用いてグループ活動認識を行う。
- 参考スコア(独自算出の注目度): 87.29451470527353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many semantic events in team sport activities e.g. basketball often involve
both group activities and the outcome (score or not). Motion patterns can be an
effective means to identify different activities. Global and local motions have
their respective emphasis on different activities, which are difficult to
capture from the optical flow due to the mixture of global and local motions.
Hence it calls for a more effective way to separate the global and local
motions. When it comes to the specific case for basketball game analysis, the
successful score for each round can be reliably detected by the appearance
variation around the basket. Based on the observations, we propose a scheme to
fuse global and local motion patterns (MPs) and key visual information (KVI)
for semantic event recognition in basketball videos. Firstly, an algorithm is
proposed to estimate the global motions from the mixed motions based on the
intrinsic property of camera adjustments. And the local motions could be
obtained from the mixed and global motions. Secondly, a two-stream 3D CNN
framework is utilized for group activity recognition over the separated global
and local motion patterns. Thirdly, the basket is detected and its appearance
features are extracted through a CNN structure. The features are utilized to
predict the success or failure. Finally, the group activity recognition and
success/failure prediction results are integrated using the kronecker product
for event recognition. Experiments on NCAA dataset demonstrate that the
proposed method obtains state-of-the-art performance.
- Abstract(参考訳): チームスポーツ活動における多くのセマンティックイベント、例えばバスケットボールは、グループ活動と結果(スコアか否かに関わらず)の両方を巻き込む。
運動パターンは、異なる活動を特定する効果的な方法である。
グローバルな動きとローカルな動きはそれぞれ異なる活動に重点を置いており、グローバルな動きとローカルな動きが混在しているため、光学的流れから捉えることは困難である。
そのため、グローバルモーションとローカルモーションを分離するより効果的な方法が求められている。
バスケットボールゲーム分析の特定の場合については、バスケットの周囲の外観変化により、各ラウンドの成功点を確実に検出することができる。
バスケットボールビデオにおける意味的事象認識のための,グローバル・ローカル・モーション・パターン(MP)とキー視覚情報(KVI)を融合する手法を提案する。
まず,カメラ調整の固有特性に基づいて混合動作から大域的な動きを推定するアルゴリズムを提案する。
そして局所的な動きは、混合と大域的な動きから得られる。
第2に,2ストリームの3d cnnフレームワークを使用して,分離したグローバルおよびローカル動作パターンに対するグループアクティビティ認識を行う。
第3に、バスケットを検出し、その外観特徴をcnn構造を介して抽出する。
これらの機能は成功または失敗を予測するために利用される。
最後に、イベント認識のためのkronecker製品を用いて、グループアクティビティ認識および成功/失敗予測結果を統合する。
NCAAデータセットの実験により,提案手法が最先端の性能を得ることを示す。
関連論文リスト
- Unifying Global and Local Scene Entities Modelling for Precise Action Spotting [5.474440128682843]
本稿では,アダプティブ・アテンション・メカニズムを用いてシーン・エンティティを解析・モデル化する手法を提案する。
我々のモデルは優れたパフォーマンスを示しており、サッカーネットv2アクションスポッティング、ファインディビング、ファインジムの課題において、第1位を確保している。
論文 参考訳(メタデータ) (2024-04-15T17:24:57Z) - Tracking Everything Everywhere All at Once [111.00807055441028]
ビデオシーケンスから高密度及び長距離運動を推定するための新しいテスト時間最適化法を提案する。
我々はOmniMotionと呼ばれる完全で一貫した動作表現を提案する。
提案手法は,従来の最先端手法よりも定量的にも定性的にも大きなマージンで優れている。
論文 参考訳(メタデータ) (2023-06-08T17:59:29Z) - Towards Active Learning for Action Spotting in Association Football
Videos [59.84375958757395]
フットボールビデオの分析は困難であり、微妙で多様な時間的パターンを特定する必要がある。
現在のアルゴリズムは、限られた注釈付きデータから学ぶ際に大きな課題に直面している。
次にアノテートすべき最も情報に富んだビデオサンプルを選択する能動的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-09T11:50:41Z) - EAN: Event Adaptive Network for Enhanced Action Recognition [66.81780707955852]
本稿では,映像コンテンツの動的性質を調査するための統合された行動認識フレームワークを提案する。
まず、局所的な手がかりを抽出する際に、動的スケールの時空間カーネルを生成し、多様な事象を適応的に適合させる。
第2に、これらのキューを正確にグローバルなビデオ表現に集約するために、トランスフォーマーによって選択されたいくつかの前景オブジェクト間のインタラクションのみをマイニングすることを提案する。
論文 参考訳(メタデータ) (2021-07-22T15:57:18Z) - SportsCap: Monocular 3D Human Motion Capture and Fine-grained
Understanding in Challenging Sports Videos [40.19723456533343]
SportsCap - 3Dの人間の動きを同時に捉え、モノラルな挑戦的なスポーツビデオ入力からきめ細かなアクションを理解するための最初のアプローチを提案する。
本手法は,組込み空間に先立って意味的かつ時間的構造を持つサブモーションを,モーションキャプチャと理解に活用する。
このようなハイブリッドな動き情報に基づいて,マルチストリーム空間時空間グラフ畳み込みネットワーク(ST-GCN)を導入し,詳細なセマンティックアクション特性を予測する。
論文 参考訳(メタデータ) (2021-04-23T07:52:03Z) - Hybrid Dynamic-static Context-aware Attention Network for Action
Assessment in Long Videos [96.45804577283563]
本稿では,長期ビデオにおけるアクションアセスメントのための新しいハイブリットDynAmic-static Context-aware AttenTION NETwork(ACTION-NET)を提案する。
ビデオのダイナミックな情報を学習すると同時に,特定フレームにおける検出した選手の静的姿勢にも焦点をあてる。
2つのストリームの特徴を組み合わせることで、専門家が与えた地道的なスコアによって監督され、最終的なビデオスコアを後退させます。
論文 参考訳(メタデータ) (2020-08-13T15:51:42Z) - Group Activity Detection from Trajectory and Video Data in Soccer [16.134402513773463]
サッカーにおけるグループアクティビティ検出は、ビデオデータまたはプレーヤとボールの軌跡データを用いて行うことができる。
現在のサッカーデータセットでは、活動は時間なしで原子イベントとしてラベル付けされる。
その結果,ほとんどの事象は,時間分解能が0.5秒未満の視力や軌跡に基づくアプローチで検出できることがわかった。
論文 参考訳(メタデータ) (2020-04-21T21:11:30Z) - Decoupling Video and Human Motion: Towards Practical Event Detection in
Athlete Recordings [33.770877823910176]
本稿では,映像情報から人間の動きを分離する中間表現として2次元人間のポーズシーケンスを提案する。
本稿では,ポーズシーケンスにおける事象検出の2つのアプローチを解説し,それを補完領域である水泳と運動の2つで評価する。
提案手法はこれらの領域に限らず,ポーズに基づく動作イベント検出の柔軟性を示す。
論文 参考訳(メタデータ) (2020-04-21T07:06:12Z) - FineGym: A Hierarchical Video Dataset for Fine-grained Action
Understanding [118.32912239230272]
FineGymは体操ビデオの上に構築された新しいアクション認識データセットだ。
アクションレベルとサブアクションレベルの両方で3レベルのセマンティック階層を持つテンポラリアノテーションを提供する。
この新たな粒度レベルは、行動認識に重大な課題をもたらす。
論文 参考訳(メタデータ) (2020-04-14T17:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。