論文の概要: Estimating Blink Probability for Highlight Detection in Figure Skating
Videos
- arxiv url: http://arxiv.org/abs/2007.01089v1
- Date: Thu, 2 Jul 2020 13:23:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 14:47:38.328293
- Title: Estimating Blink Probability for Highlight Detection in Figure Skating
Videos
- Title(参考訳): フィギュアスケートビデオにおけるハイライト検出のための瞬目確率の推定
- Authors: Tamami Nakano, Atsuya Sakata, Akihiro Kishimoto
- Abstract要約: 点滅率に基づく新しいハイライト検出手法を提案する。
この方法は1次元畳み込みネットワーク(1DCNN)をトレーニングし、フィギュアスケートビデオから各ビデオフレームにおける点滅率を評価する。
実験の結果,ビデオクリップの94%で瞬き速度を推定し,ジャンプイベント周辺の瞬き速度の時間変化を高精度に予測できることがわかった。
- 参考スコア(独自算出の注目度): 6.436397118145476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Highlight detection in sports videos has a broad viewership and huge
commercial potential. It is thus imperative to detect highlight scenes more
suitably for human interest with high temporal accuracy. Since people
instinctively suppress blinks during attention-grabbing events and
synchronously generate blinks at attention break points in videos, the
instantaneous blink rate can be utilized as a highly accurate temporal
indicator of human interest. Therefore, in this study, we propose a novel,
automatic highlight detection method based on the blink rate. The method trains
a one-dimensional convolution network (1D-CNN) to assess blink rates at each
video frame from the spatio-temporal pose features of figure skating videos.
Experiments show that the method successfully estimates the blink rate in 94%
of the video clips and predicts the temporal change in the blink rate around a
jump event with high accuracy. Moreover, the method detects not only the
representative athletic action, but also the distinctive artistic expression of
figure skating performance as key frames. This suggests that the
blink-rate-based supervised learning approach enables high-accuracy highlight
detection that more closely matches human sensibility.
- Abstract(参考訳): スポーツビデオのハイライト検出は幅広い視聴者と商業的可能性を秘めている。
したがって、人間の興味により適したハイライトシーンを時間的精度で検出することが不可欠である。
注意グラフ作成中の瞬きを直感的に抑制し、ビデオの注目ブレークポイントで瞬きを同期的に生成するため、瞬き瞬き率を人的関心の高精度な時間指標として利用することができる。
そこで本研究では,点滅率に基づく新しいハイライト自動検出手法を提案する。
本手法は,1次元畳み込みネットワーク (1d-cnn) を訓練し,フィギュアスケートビデオの時空間的ポーズ特徴から各フレームの点滅率を評価する。
実験の結果,ビデオクリップの94%で瞬き速度を推定し,ジャンプイベント周辺の瞬き速度の時間変化を高精度に予測できることがわかった。
さらに,代表的な運動動作だけでなく,フィギュアスケートのパフォーマンスをキーフレームとして表現する特徴的な芸術的表現も検出する。
このことは、ブランクレートに基づく教師あり学習アプローチにより、人間の感受性により近い精度のハイライト検出が可能になることを示唆している。
関連論文リスト
- Bright Channel Prior Attention for Multispectral Pedestrian Detection [1.441471691695475]
低照度環境下での歩行者検出を向上する新しい方法を提案する。
提案手法は,画像の強調と検出を統合されたフレームワークに統合する。
論文 参考訳(メタデータ) (2023-05-22T09:10:22Z) - Towards Active Learning for Action Spotting in Association Football
Videos [59.84375958757395]
フットボールビデオの分析は困難であり、微妙で多様な時間的パターンを特定する必要がある。
現在のアルゴリズムは、限られた注釈付きデータから学ぶ際に大きな課題に直面している。
次にアノテートすべき最も情報に富んだビデオサンプルを選択する能動的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-09T11:50:41Z) - TimeBalance: Temporally-Invariant and Temporally-Distinctive Video
Representations for Semi-Supervised Action Recognition [68.53072549422775]
学生教師による半教師付き学習フレームワークTimeBalanceを提案する。
時間的に不変であり,時間的に異なる教師から知識を抽出する。
提案手法は,3つの動作認識ベンチマーク上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-28T19:28:54Z) - Real-time Multi-person Eyeblink Detection in the Wild for Untrimmed
Video [41.4300990443683]
野生のリアルタイムアイブリンク検出は、疲労検出、顔の反偽造、感情分析などに広く役立ちます。
私たちはこの研究分野に初めて光を当て、データセット、理論、プラクティスに不可欠な貢献をしました。
論文 参考訳(メタデータ) (2023-03-28T15:35:25Z) - A Graph-Based Method for Soccer Action Spotting Using Unsupervised
Player Classification [75.93186954061943]
アクションスポッティングには、ゲームのダイナミクス、イベントの複雑さ、ビデオシーケンスのバリエーションを理解することが含まれる。
本研究では, (a) 選手, 審判, ゴールキーパーをグラフのノードとして識別し, および (b) 時間的相互作用をグラフのシーケンスとしてモデル化することによって, 前者に焦点を当てる。
プレーヤ識別タスクでは,他のモダリティと組み合わせることで,平均mAPの57.83%の総合的な性能が得られる。
論文 参考訳(メタデータ) (2022-11-22T15:23:53Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - CLTA: Contents and Length-based Temporal Attention for Few-shot Action
Recognition [2.0349696181833337]
本稿では,個々のビデオに対して時間的注意をカスタマイズしたコンテンツと長さに基づく時間的注意モデルを提案する。
通常のソフトマックス分類器で微調整されていないバックボーンであっても、最先端のアクション認識と同等あるいはそれ以上の結果が得られる。
論文 参考訳(メタデータ) (2021-03-18T23:40:28Z) - AdaFuse: Adaptive Temporal Fusion Network for Efficient Action
Recognition [68.70214388982545]
テンポラルモデリングは、効率的なビデオアクション認識の鍵である。
我々はAdaFuseと呼ばれる適応時間融合ネットワークを導入し、現在の特徴マップと過去の特徴マップからチャネルを融合する。
我々の手法は、最先端の手法に匹敵する精度で、約40%の計算節約を達成できる。
論文 参考訳(メタデータ) (2021-02-10T23:31:02Z) - Hybrid Dynamic-static Context-aware Attention Network for Action
Assessment in Long Videos [96.45804577283563]
本稿では,長期ビデオにおけるアクションアセスメントのための新しいハイブリットDynAmic-static Context-aware AttenTION NETwork(ACTION-NET)を提案する。
ビデオのダイナミックな情報を学習すると同時に,特定フレームにおける検出した選手の静的姿勢にも焦点をあてる。
2つのストリームの特徴を組み合わせることで、専門家が与えた地道的なスコアによって監督され、最終的なビデオスコアを後退させます。
論文 参考訳(メタデータ) (2020-08-13T15:51:42Z) - Unsupervised Temporal Feature Aggregation for Event Detection in
Unstructured Sports Videos [10.230408415438966]
任意のカメラアングルを持つ非構造化環境を対象としたスポーツビデオにおけるイベント検出事例について検討した。
我々は、非構造化設定におけるプレイヤーの教師なし識別と、任意の射撃角度によるバリエーションを示すために訓練されたモデルの一般化の2つの主要な問題を同定し、解決する。
論文 参考訳(メタデータ) (2020-02-19T10:24:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。