論文の概要: Annotation Techniques for Judo Combat Phase Classification from Tournament Footage
- arxiv url: http://arxiv.org/abs/2412.07155v1
- Date: Tue, 10 Dec 2024 03:24:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:36:03.524891
- Title: Annotation Techniques for Judo Combat Phase Classification from Tournament Footage
- Title(参考訳): 観光フットジュからの柔道コンバット位相分類のためのアノテーション技術
- Authors: Anthony Miyaguchi, Jed Moutahir, Tanmay Sutar,
- Abstract要約: 我々は、関連するエンティティを抽出し、柔道記録から戦闘フェーズを分類するモデルを訓練する。
我々は, 微調整対象検出器からの移動学習により, 戦闘相のモデルを構築し, マッチの存在, 活動, 立位を分類する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper presents a semi-supervised approach to extracting and analyzing combat phases in judo tournaments using live-streamed footage. The objective is to automate the annotation and summarization of live streamed judo matches. We train models that extract relevant entities and classify combat phases from fixed-perspective judo recordings. We employ semi-supervised methods to address limited labeled data in the domain. We build a model of combat phases via transfer learning from a fine-tuned object detector to classify the presence, activity, and standing state of the match. We evaluate our approach on a dataset of 19 thirty-second judo clips, achieving an F1 score on a $20\%$ test hold-out of 0.66, 0.78, and 0.87 for the three classes, respectively. Our results show initial promise for automating more complex information retrieval tasks using rigorous methods with limited labeled data.
- Abstract(参考訳): 本稿では,ライブストリーミング映像を用いた柔道大会における戦闘相の抽出と分析のための半教師付きアプローチを提案する。
目的は,ライブストリームジュドマッチのアノテーションと要約を自動化することである。
我々は、関連するエンティティを抽出し、固定パースペクティブな柔道記録から戦闘フェーズを分類するモデルを訓練する。
ドメイン内の制限付きラベル付きデータに対処するために、半教師付き手法を用いる。
我々は, 微調整対象検出器からの移動学習により, 戦闘相のモデルを構築し, マッチの存在, 活動, 立位を分類する。
提案手法は,3つのクラスに対してそれぞれ0.66,0.78,0.87の試験ホールドアウトに対して20\%のF1スコアを達成し,13秒の柔道クリップのデータセットに対するアプローチを評価した。
以上の結果から,ラベル付きデータを用いた厳密な手法を用いて,より複雑な情報検索タスクを自動化できることが示唆された。
関連論文リスト
- Refining Pre-Trained Motion Models [56.18044168821188]
我々は、自己教師付きトレーニングによる最先端の教師付きモデルの改善に挑戦する。
実世界の未学習ビデオから「クリーン」な訓練信号を得ることに重点を置いている。
本研究では,本手法が実動画における完全教師付き手法よりも信頼性が高いことを示す。
論文 参考訳(メタデータ) (2024-01-01T18:59:33Z) - Learning to Ground Instructional Articles in Videos through Narrations [50.3463147014498]
ナレーションされたハウツービデオにおける手続き的活動の段階をローカライズするためのアプローチを提案する。
本稿では,教科記事を含む言語知識ベース(wikiHow)からステップ記述を抽出する。
本モデルは,3つのモダリティをマッチングすることにより,プロシージャ記事のステップをハウツービデオに時間的に基礎付けることを学習する。
論文 参考訳(メタデータ) (2023-06-06T15:45:53Z) - HomE: Homography-Equivariant Video Representation Learning [62.89516761473129]
マルチビュービデオの表現学習のための新しい手法を提案する。
提案手法は異なる視点間の暗黙的なマッピングを学習し,近隣の視点間のホモグラフィ関係を維持する表現空間を決定づける。
動作分類では,UCF101データセットの96.4%の3倍精度が得られた。
論文 参考訳(メタデータ) (2023-06-02T15:37:43Z) - Towards Active Learning for Action Spotting in Association Football
Videos [59.84375958757395]
フットボールビデオの分析は困難であり、微妙で多様な時間的パターンを特定する必要がある。
現在のアルゴリズムは、限られた注釈付きデータから学ぶ際に大きな課題に直面している。
次にアノテートすべき最も情報に富んだビデオサンプルを選択する能動的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-09T11:50:41Z) - Ego-Vehicle Action Recognition based on Semi-Supervised Contrastive
Learning [0.0]
我々は,自走車行動に着目して,適切な映像間距離を定義することができることを示す。
教師付き学習に基づく既存の方法は、事前に定義されたクラスに該当しないビデオを扱うことができない。
半教師付きコントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2023-03-02T05:19:31Z) - Sport Task: Fine Grained Action Detection and Classification of Table
Tennis Strokes from Videos for MediaEval 2022 [0.9894420655516565]
本課題は,スポーツビデオから微妙な動きを検出し,分類することである。
私たちは卓球の試合の記録に重点を置いている。
2021年以降、このタスクは、注釈のない未修正ビデオからのストローク検出にも挑戦している。
論文 参考訳(メタデータ) (2023-01-31T12:03:59Z) - Weakly Supervised Two-Stage Training Scheme for Deep Video Fight
Detection Model [0.0]
ビデオにおけるファイト検出は、今日の監視システムとストリーミングメディアの普及にともなう、新たなディープラーニングアプリケーションである。
これまでの研究は、この問題に対処するための行動認識技術に大きく依存していた。
本研究では,動作認識特徴抽出器と異常スコア生成器の合成として,戦闘検出モデルを設計する。
論文 参考訳(メタデータ) (2022-09-23T08:29:16Z) - End-to-End Semi-Supervised Learning for Video Action Detection [23.042410033982193]
ラベルのないデータを効果的に活用するシンプルなエンドツーエンドアプローチを提案する。
ビデオアクション検出には、アクションクラス予測と時間的一貫性の両方が必要である。
提案手法が2つの異なる行動検出ベンチマークデータセットに対して有効であることを示す。
論文 参考訳(メタデータ) (2022-03-08T18:11:25Z) - Semi-TCL: Semi-Supervised Track Contrastive Representation Learning [40.31083437957288]
我々は、外観埋め込みを学習するために、新しいインスタンス・ツー・トラックマッチングの目的を設計する。
候補検出とトラッカーに永続化されたトラックの埋め込みを比較する。
我々は,この学習目標を,構成的損失の精神に倣って統一的な形で実施する。
論文 参考訳(メタデータ) (2021-07-06T05:23:30Z) - Enhancing Unsupervised Video Representation Learning by Decoupling the
Scene and the Motion [86.56202610716504]
アクションカテゴリは、アクションが発生するシーンと非常に関連しているため、モデルが、シーン情報のみを符号化したソリューションに分解する傾向がある。
本稿では,シーンと動き(DSM)を2つの簡単な操作で分離し,動き情報に対するモデル注意がより高いようにすることを提案する。
論文 参考訳(メタデータ) (2020-09-12T09:54:11Z) - Hybrid Dynamic-static Context-aware Attention Network for Action
Assessment in Long Videos [96.45804577283563]
本稿では,長期ビデオにおけるアクションアセスメントのための新しいハイブリットDynAmic-static Context-aware AttenTION NETwork(ACTION-NET)を提案する。
ビデオのダイナミックな情報を学習すると同時に,特定フレームにおける検出した選手の静的姿勢にも焦点をあてる。
2つのストリームの特徴を組み合わせることで、専門家が与えた地道的なスコアによって監督され、最終的なビデオスコアを後退させます。
論文 参考訳(メタデータ) (2020-08-13T15:51:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。