論文の概要: BoxMAC -- A Boxing Dataset for Multi-label Action Classification
- arxiv url: http://arxiv.org/abs/2412.18204v2
- Date: Mon, 17 Feb 2025 10:01:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:04:26.352039
- Title: BoxMAC -- A Boxing Dataset for Multi-label Action Classification
- Title(参考訳): BoxMAC - マルチラベルアクション分類のためのボクシングデータセット
- Authors: Shashikanta Sahoo,
- Abstract要約: BoxMACは15のプロボクサーと13のアクションラベルを備えた現実世界のボクシングデータセットである。
本稿では,画像とビデオの両方において,複数の動作を共同認識するための新しいアーキテクチャを提案する。
BoxMACはスポーツとしてのボクシングの発展のための貴重な資源として機能する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In competitive combat sports like boxing, analyzing a boxers's performance statics is crucial for evaluating the quantity and variety of punches delivered during bouts. These statistics provide valuable data and feedback, which are routinely used for coaching and performance enhancement. We introduce BoxMAC, a real-world boxing dataset featuring 15 professional boxers and encompassing 13 distinct action labels. Comprising over 60,000 frames, our dataset has been meticulously annotated for multiple actions per frame with inputs from a boxing coach. Since two boxers can execute different punches within a single timestamp, this problem falls under the domain of multi-label action classification. We propose a novel architecture for jointly recognizing multiple actions in both individual images and videos. We investigate baselines using deep neural network architectures to address both tasks. We believe that BoxMAC will enable researchers and practitioners to develop and evaluate more efficient models for performance analysis. With its realistic and diverse nature, BoxMAC can serve as a valuable resource for the advancement of boxing as a sport
- Abstract(参考訳): ボクシングのような競争力のあるスポーツでは、ボクサーのパフォーマンススタティックスを分析することが、試合中に提供されるパンチの量と多様性を評価する上で重要である。
これらの統計は貴重なデータとフィードバックを提供し、コーチングやパフォーマンス向上に日常的に使用される。
BoxMACは15のプロボクサーと13のアクションラベルを含む実世界のボクシングデータセットである。
私たちのデータセットは6万フレームを超えており、ボクシングコーチからの入力によって、1フレームあたりの複数のアクションに対して細心の注意を払って注釈付けされています。
2つのボクサーは1つのタイムスタンプ内で異なるパンチを実行することができるため、この問題はマルチラベルアクション分類の領域に該当する。
本稿では,画像とビデオの両方において,複数の動作を共同認識するための新しいアーキテクチャを提案する。
両課題に対処するために,ディープニューラルネットワークアーキテクチャを用いたベースラインの検討を行う。
BoxMACは、研究者や実践者がパフォーマンス分析のためのより効率的なモデルを開発し、評価することを可能にすると信じている。
BoxMACは現実的で多様な性質を持つため、スポーツとしてのボクシングの発展のための貴重な資源となる。
関連論文リスト
- Benchmarking Badminton Action Recognition with a New Fine-Grained Dataset [16.407837909069073]
高品質なバドミントン映像から得られたビデオバドミントンデータセットを紹介する。
VideoBadmintonの導入は、バドミントンアクション認識だけでなく、きめ細かいアクションを認識するためのデータセットも提供する。
論文 参考訳(メタデータ) (2024-03-19T02:52:06Z) - SportsMOT: A Large Multi-Object Tracking Dataset in Multiple Sports
Scenes [44.46768991505495]
本稿では,emphSportsMOTと呼ばれる多種多様なスポーツシーンにおける大規模多目的追跡データセットを提案する。
240のビデオシーケンス、150Kフレーム以上、およびバスケットボール、バレーボール、サッカーを含む3つのスポーツカテゴリーから収集された1.6M以上のバウンディングボックスで構成されている。
本稿では,emphMixSortと呼ばれる新しい多対象追跡フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-11T12:07:31Z) - H2RBox: Horizonal Box Annotation is All You Need for Oriented Object
Detection [63.66553556240689]
オブジェクト指向物体検出は、空中画像から自律運転に至るまで、多くの用途に現れる。
多くの既存の検出ベンチマークには水平バウンディングボックスがアノテートされているが、これはきめ細かな回転ボックスよりもコストが低い。
本稿では,H2RBoxと呼ばれる単純なオブジェクト指向検出手法を提案する。
論文 参考訳(メタデータ) (2022-10-13T05:12:45Z) - P2ANet: A Dataset and Benchmark for Dense Action Detection from Table Tennis Match Broadcasting Videos [64.57435509822416]
この作品は、ワールド・テーブルテニス選手権とオリンピアードのプロの卓球試合の放送ビデオから収集された2,721本のビデオクリップで構成されている。
強調局所化と強調認識という2つのアクション検出問題を定式化する。
その結果、TheNameは依然として困難なタスクであり、ビデオからの高密度なアクション検出のための特別なベンチマークとして使用できることを確認した。
論文 参考訳(メタデータ) (2022-07-26T08:34:17Z) - A Survey on Video Action Recognition in Sports: Datasets, Methods and
Applications [60.3327085463545]
本稿では,スポーツ分析のための映像行動認識に関する調査を行う。
サッカー、バスケットボール、バレーボール、ホッケー、フィギュアスケート、体操、卓球、ダイビング、バドミントンなど10種以上のスポーツを紹介します。
本研究では,サッカー,バスケットボール,卓球,フィギュアスケート動作認識をサポートするPaddlePaddleを用いたツールボックスを開発した。
論文 参考訳(メタデータ) (2022-06-02T13:19:36Z) - MultiSports: A Multi-Person Video Dataset of Spatio-Temporally Localized
Sports Actions [39.27858380391081]
本論文では、マルチスポーツとして作成された原子時間行動の新しいマルチパーソンデータセットを提示する。
4つのスポーツクラスを選択し、約3200のビデオクリップを収集し、37790のアクションインスタンスに907kバウンディングボックスをアノテートすることで、MultiSports v1.0のデータセットを構築します。
論文 参考訳(メタデータ) (2021-05-16T10:40:30Z) - Semi-Supervised Action Recognition with Temporal Contrastive Learning [50.08957096801457]
2つの異なる速度でラベル付きビデオを用いて2経路の時間的コントラストモデルを学習する。
我々は最先端の半教師付き画像認識手法の映像拡張性能を著しく向上させた。
論文 参考訳(メタデータ) (2021-02-04T17:28:35Z) - Generating Masks from Boxes by Mining Spatio-Temporal Consistencies in
Videos [159.02703673838639]
フレーム毎のバウンディングボックスアノテーションからセグメンテーションマスクを生成する手法を動画で紹介します。
得られた正確なマスクを用いて、ビデオオブジェクトセグメンテーション(VOS)ネットワークの弱い教師付きトレーニングを行う。
追加データは、VOSとより困難なトラッキングドメインの両方で最先端の結果をもたらす大幅に優れた一般化パフォーマンスを提供します。
論文 参考訳(メタデータ) (2021-01-06T18:56:24Z) - ScribbleBox: Interactive Annotation Framework for Video Object
Segmentation [62.86341611684222]
我々はScribbleBoxを紹介した。これはビデオでオブジェクトインスタンスにマスクを付けるためのインタラクティブなフレームワークだ。
パラメトリック曲線を用いて軌道を近似することにより、ボックストラックを効率的にアノテートする。
我々のScribbleBoxアプローチは、DAVIS 2017で88.92%のJ&Fに達し、ボックストラックあたり9.14クリック、4フレームのアノテーションがある。
論文 参考訳(メタデータ) (2020-08-22T00:33:10Z) - Event detection in coarsely annotated sports videos via parallel multi
receptive field 1D convolutions [14.30009544149561]
スポーツビデオ分析のような問題では、正確なフレームレベルのアノテーションと正確なイベント時間を得るのは難しい。
粗い注釈付きビデオにおけるイベント検出の課題を提案する。
本稿では,提案課題に対する多層時間畳み込みネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-04-13T19:51:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。