論文の概要: A New Perspective for Shuttlecock Hitting Event Detection
- arxiv url: http://arxiv.org/abs/2306.10293v1
- Date: Sat, 17 Jun 2023 08:34:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-06-21 23:14:51.653021
- Title: A New Perspective for Shuttlecock Hitting Event Detection
- Title(参考訳): シャトルコック衝突イベント検出の新しい展望
- Authors: Yu-Hsi Chen
- Abstract要約: 本稿では,シャトルコック衝突事故検出のための新しいアプローチを紹介する。
汎用的な手法に頼るのではなく、画像列を推論することでプレイヤーのヒットアクションをキャプチャする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This article introduces a novel approach to shuttlecock hitting event
detection. Instead of depending on generic methods, we capture the hitting
action of players by reasoning over a sequence of images. To learn the features
of hitting events in a video clip, we specifically utilize a deep learning
model known as SwingNet. This model is designed to capture the relevant
characteristics and patterns associated with the act of hitting in badminton.
By training SwingNet on the provided video clips, we aim to enable the model to
accurately recognize and identify the instances of hitting events based on
their distinctive features. Furthermore, we apply the specific video processing
technique to extract the prior features from the video, which significantly
reduces the learning difficulty for the model. The proposed method not only
provides an intuitive and user-friendly approach but also presents a fresh
perspective on the task of detecting badminton hitting events. The source code
will be available at
https://github.com/TW-yuhsi/A-New-Perspective-for-Shuttlecock-Hitting-Event-Detection.
- Abstract(参考訳): 本稿では,シャトルコック衝突事故検出のための新しいアプローチを紹介する。
汎用的な手法に頼るのではなく、画像列を推論することでプレイヤーのヒットアクションをキャプチャする。
ビデオクリップでイベントを打つことの特徴を学習するために、SwingNetとして知られるディープラーニングモデルを利用する。
このモデルは、バドミントンを打つ行為に関連する特性とパターンを捉えるように設計されている。
提案するビデオクリップ上でswingnetをトレーニングすることで,その特徴に基づいて,ヒットイベントのインスタンスを正確に認識し,識別することを目指している。
さらに,映像から先行する特徴を抽出するために,特定の映像処理手法を適用し,モデルの学習難易度を著しく低減する。
提案手法は,直感的かつユーザフレンドリなアプローチを提供するだけでなく,バドミントン衝突検出タスクに対する新たな視点を提供する。
ソースコードはhttps://github.com/TW-yuhsi/A-New-Perspective-for-Shuttlecock-Hitting-Event-Detectionで入手できる。
関連論文リスト
- Unifying Global and Local Scene Entities Modelling for Precise Action Spotting [5.474440128682843]
本稿では,アダプティブ・アテンション・メカニズムを用いてシーン・エンティティを解析・モデル化する手法を提案する。
我々のモデルは優れたパフォーマンスを示しており、サッカーネットv2アクションスポッティング、ファインディビング、ファインジムの課題において、第1位を確保している。
論文 参考訳(メタデータ) (2024-04-15T17:24:57Z) - An All Deep System for Badminton Game Analysis [0.0874967598360817]
CoachAI Badminton 2023 Track1イニシアチブは、バドミントンマッチビデオ内のイベントを自動的に検出する。
ノイズ検出データから発生する問題に対処するために,様々なディープラーニング手法を実装した。
私たちのシステムは1.0点中0.78点を獲得しました。
論文 参考訳(メタデータ) (2023-08-24T08:41:40Z) - A Graph-Based Method for Soccer Action Spotting Using Unsupervised
Player Classification [75.93186954061943]
アクションスポッティングには、ゲームのダイナミクス、イベントの複雑さ、ビデオシーケンスのバリエーションを理解することが含まれる。
本研究では, (a) 選手, 審判, ゴールキーパーをグラフのノードとして識別し, および (b) 時間的相互作用をグラフのシーケンスとしてモデル化することによって, 前者に焦点を当てる。
プレーヤ識別タスクでは,他のモダリティと組み合わせることで,平均mAPの57.83%の総合的な性能が得られる。
論文 参考訳(メタデータ) (2022-11-22T15:23:53Z) - REST: REtrieve & Self-Train for generative action recognition [54.90704746573636]
本稿では,ビデオ・アクション認識のための事前学習型生成ビジョン・アンド・ランゲージ(V&L)基礎モデルを提案する。
動作クラスを生成するための生成モデルの直接微調整は、過度な過度なオーバーフィッティングに苦しむことを示す。
2つの主要なコンポーネントからなるトレーニングフレームワークであるRESTを紹介します。
論文 参考訳(メタデータ) (2022-09-29T17:57:01Z) - PILED: An Identify-and-Localize Framework for Few-Shot Event Detection [79.66042333016478]
本研究では,事前学習した言語モデルから事象関連知識を引き出すために,クローゼプロンプトを用いた。
型固有のパラメータの数を最小化し、新しい型に対するイベント検出タスクに迅速に適応できるようにします。
論文 参考訳(メタデータ) (2022-02-15T18:01:39Z) - ActionCLIP: A New Paradigm for Video Action Recognition [14.961103794667341]
ラベルテキストのセマンティック情報に重きを置くことで,行動認識の新しい視点を提供する。
動作認識のためのマルチモーダル学習フレームワークに基づく新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2021-09-17T11:21:34Z) - Unsupervised Visual Representation Learning by Tracking Patches in Video [88.56860674483752]
本研究では,コンピュータビジョンシステムのプロキシタスクとしてトラッキングを用いて視覚表現を学習することを提案する。
子どもたちがプレイするキャッチゲームをベースに、視覚表現を学ぶ3D-CNNモデルのためのキャッチ・ザ・パッチ(CtP)ゲームを設計します。
論文 参考訳(メタデータ) (2021-05-06T09:46:42Z) - Extensively Matching for Few-shot Learning Event Detection [66.31312496170139]
超視覚的な学習設定下でのイベント検出モデルは、新しいイベントタイプへの転送に失敗する。
イベント検出では、あまり画像学習は行われていない。
sup-port の例にマッチする2つのノベルロス因子を提案し,モデルにより多くのトレーニング信号を与える。
論文 参考訳(メタデータ) (2020-06-17T18:30:30Z) - Revisiting Few-shot Activity Detection with Class Similarity Control [107.79338380065286]
本稿では,提案回帰に基づく数ショットの時間的活動検出のためのフレームワークを提案する。
我々のモデルはエンドツーエンドのトレーニングが可能で、数ショットのアクティビティと未トリミングなテストビデオのフレームレートの違いを考慮しており、さらに数ショットのサンプルの恩恵を受けることができる。
論文 参考訳(メタデータ) (2020-03-31T22:02:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。