論文の概要: A Multi-Stage Temporal Convolutional Network for Volleyball Jumps
Classification Using a Waist-Mounted IMU
- arxiv url: http://arxiv.org/abs/2310.13097v1
- Date: Thu, 19 Oct 2023 18:55:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 01:34:53.082719
- Title: A Multi-Stage Temporal Convolutional Network for Volleyball Jumps
Classification Using a Waist-Mounted IMU
- Title(参考訳): ウエストマウント型imuを用いたバレーボールジャンプ分類のための多段時間畳み込みネットワーク
- Authors: Meng Shang, Camilla De Bleecker, Jos Vanrenterghem, Roel De Ridder,
Sabine Verschueren, Carolina Varon, Walter De Raedt, and Bart Vanrumste
- Abstract要約: トレーニング中や試合中のバレーボール選手のジャンプ数を監視することは、怪我を防ぐために重要である。
既存の方法は、異なる種類のジャンプの正確な区別を提供しない。
本研究では, 1つの慣性測定ユニット(IMU)を腰に装着して, バレーボールジャンプのタイプを認識する非邪魔システムを提案する。
- 参考スコア(独自算出の注目度): 1.1773081168337212
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Monitoring the number of jumps for volleyball players during training or a
match can be crucial to prevent injuries, yet the measurement requires
considerable workload and cost using traditional methods such as video
analysis. Also, existing methods do not provide accurate differentiation
between different types of jumps. In this study, an unobtrusive system with a
single inertial measurement unit (IMU) on the waist was proposed to recognize
the types of volleyball jumps. A Multi-Layer Temporal Convolutional Network
(MS-TCN) was applied for sample-wise classification. The model was evaluated on
ten volleyball players and twenty-six volleyball players, during a lab session
with a fixed protocol of jumping and landing tasks, and during four volleyball
training sessions, respectively. The MS-TCN model achieved better performance
than a state-of-the-art deep learning model but with lower computational cost.
In the lab sessions, most jump counts showed small differences between the
predicted jumps and video-annotated jumps, with an overall count showing a
Limit of Agreement (LoA) of 0.1+-3.40 (r=0.884). For comparison, the proposed
algorithm showed slightly worse results than VERT (a commercial jumping
assessment device) with a LoA of 0.1+-2.08 (r=0.955) but the differences were
still within a comparable range. In the training sessions, the recognition of
three types of jumps exhibited a mean difference from observation of less than
10 jumps: block, smash, and overhead serve. These results showed the potential
of using a single IMU to recognize the types of volleyball jumps. The
sample-wise architecture provided high resolution of recognition and the MS-TCN
required fewer parameters to train compared with state-of-the-art models.
- Abstract(参考訳): トレーニングや試合中のバレーボール選手のジャンプ数を監視することは、怪我を防ぐために重要であるが、ビデオ分析のような従来の手法を用いて、かなりの作業負荷とコストを必要とする。
また、既存手法では異なる種類のジャンプを正確に区別することができない。
本研究では, 1つの慣性測定ユニット(IMU)を腰に装着して, バレーボールジャンプのタイプを認識する非邪魔システムを提案する。
サンプル分類にMS-TCN(Multi-Layer Temporal Convolutional Network)を適用した。
このモデルは10人のバレーボール選手と26人のバレーボール選手で評価され、それぞれ4回のバレーボールトレーニングセッションでジャンプと着陸のプロトコルが固定された実験室セッションで評価された。
MS-TCNモデルは最先端のディープラーニングモデルよりも性能が良いが、計算コストは低い。
実験室では、ほとんどのジャンプ回数は、予測ジャンプとビデオアノテートジャンプの小さな違いを示し、総数で0.1+-3.40(r=0.884)の合意限界(LoA)を示した。
比較のために提案アルゴリズムは, VERT (商業ジャンプ評価装置) の LoA が0.1+-2.08 (r=0.955) であるのに対して, 差は依然として同等の範囲内であった。
トレーニングセッションでは,3種類のジャンプの認識において,ブロック,スマッシュ,オーバヘッドの10回未満のジャンプの観察と平均的な違いを示した。
これらの結果は,バレーボールジャンプのタイプを認識するために,単一のIMUを使用することの可能性を示した。
サンプルワイドアーキテクチャは高解像度の認識を提供し、MS-TCNは最先端のモデルと比較してトレーニングするパラメータが少なかった。
関連論文リスト
- Fast Propagation is Better: Accelerating Single-Step Adversarial
Training via Sampling Subnetworks [69.54774045493227]
逆行訓練の欠点は、逆行例の生成によって引き起こされる計算オーバーヘッドである。
モデルの内部構造ブロックを利用して効率を向上させることを提案する。
従来の手法と比較して,本手法はトレーニングコストを削減できるだけでなく,モデルの堅牢性も向上する。
論文 参考訳(メタデータ) (2023-10-24T01:36:20Z) - Lightning Fast Video Anomaly Detection via Adversarial Knowledge Distillation [106.42167050921718]
本稿では,ビデオ中の異常検出のための非常に高速なフレームレベルモデルを提案する。
複数の高精度なオブジェクトレベルの教師モデルから知識を抽出することで、異常を検出することを学ぶ。
提案モデルでは,これまで聞こえなかった1480 FPSの速度のため,速度と精度の最良のトレードオフを実現している。
論文 参考訳(メタデータ) (2022-11-28T17:50:19Z) - A Simple Baseline that Questions the Use of Pretrained-Models in
Continual Learning [30.023047201419825]
いくつかの手法は、事前訓練された表現に基づいて連続学習機構を設計し、継続学習のトレーニング中に最小限のアップデートやバックボーンモデルの更新を許可しない。
我々は、事前訓練された特徴抽出器自体が、Split-CIFAR100およびCoRe 50ベンチマーク上での競争力や継続学習性能を達成するのに十分な強度を持つと論じる。
このベースラインは10-Split-CIFAR-100で88.53%を達成した。
論文 参考訳(メタデータ) (2022-10-10T04:19:53Z) - Few-Shot Classification with Contrastive Learning [10.236150550121163]
両段階に比較学習をシームレスに統合する,新しいコントラスト学習ベースのフレームワークを提案する。
メタトレーニングの段階において,同エピソードの2つの異なる視点から最寄りのセントロイド分類を行うための,クロスビュー・エピソード・トレーニング機構を提案する。
これらの2つの戦略は、ビュー間のバイアスを克服し、表現の転送可能性を促進するようモデルに強制する。
論文 参考訳(メタデータ) (2022-09-17T02:39:09Z) - Block Pruning For Faster Transformers [89.70392810063247]
小型モデルと高速モデルの両方を対象としたブロックプルーニング手法を提案する。
このアプローチは、アテンションヘッドのような基盤となるモデルの完全なコンポーネントを抽出することを学ぶ。
論文 参考訳(メタデータ) (2021-09-10T12:46:32Z) - Unsupervised Class-Incremental Learning Through Confusion [0.4604003661048266]
入ってくるデータを新しいクラスとして訓練することによるネットワークの混乱を生かした新規性検出手法を提案する。
この検出方法中にクラスアンバランスを組み込むことで、パフォーマンスが大幅に向上することがわかった。
論文 参考訳(メタデータ) (2021-04-09T15:58:43Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - FROST: Faster and more Robust One-shot Semi-supervised Training [0.0]
本稿では,一対一の半教師付き学習手法を提案する。
実験では、ラベルなしデータの構成が不明な場合、FROSTが良好に動作できることを実証した。
論文 参考訳(メタデータ) (2020-11-18T18:56:03Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z) - Once-for-All Adversarial Training: In-Situ Tradeoff between Robustness
and Accuracy for Free [115.81899803240758]
敵の訓練とその多くの変種は、ネットワークの堅牢性を大幅に改善するが、標準精度を妥協するコストがかかる。
本稿では,訓練されたモデルをその場で迅速に校正する方法を問うとともに,その標準と堅牢な精度のトレードオフについて検討する。
提案するフレームワークであるOne-for-all Adversarial Training (OAT)は,革新的なモデル条件トレーニングフレームワーク上に構築されている。
論文 参考訳(メタデータ) (2020-10-22T16:06:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。