論文の概要: FenceNet: Fine-grained Footwork Recognition in Fencing
- arxiv url: http://arxiv.org/abs/2204.09434v1
- Date: Wed, 20 Apr 2022 12:54:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-21 14:45:10.539066
- Title: FenceNet: Fine-grained Footwork Recognition in Fencing
- Title(参考訳): FenceNet: フェンシングにおけるきめ細かいフットワーク認識
- Authors: Kevin Zhu, Alexander Wong, John McPhee
- Abstract要約: FenceNetは、フェンシングにおけるきめ細かいフットワークテクニックの分類を自動化する新しいアーキテクチャである。
入力として2Dポーズデータを取り込み、スケルトンベースのアクション認識アプローチを使用してアクションを分類する。
10倍のクロスバリデーションで85.4%の精度を達成し、各フェンスをテストセットとして残す。
- 参考スコア(独自算出の注目度): 84.19619219240859
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current data analysis for the Canadian Olympic fencing team is primarily done
manually by coaches and analysts. Due to the highly repetitive, yet dynamic and
subtle movements in fencing, manual data analysis can be inefficient and
inaccurate. We propose FenceNet as a novel architecture to automate the
classification of fine-grained footwork techniques in fencing. FenceNet takes
2D pose data as input and classifies actions using a skeleton-based action
recognition approach that incorporates temporal convolutional networks to
capture temporal information. We train and evaluate FenceNet on the Fencing
Footwork Dataset (FFD), which contains 10 fencers performing 6 different
footwork actions for 10-11 repetitions each (652 total videos). FenceNet
achieves 85.4% accuracy under 10-fold cross-validation, where each fencer is
left out as the test set. This accuracy is within 1% of the current
state-of-the-art method, JLJA (86.3%), which selects and fuses features
engineered from skeleton data, depth videos, and inertial measurement units.
BiFenceNet, a variant of FenceNet that captures the "bidirectionality" of human
movement through two separate networks, achieves 87.6% accuracy, outperforming
JLJA. Since neither FenceNet nor BiFenceNet requires data from wearable
sensors, unlike JLJA, they could be directly applied to most fencing videos,
using 2D pose data as input extracted from off-the-shelf 2D human pose
estimators. In comparison to JLJA, our methods are also simpler as they do not
require manual feature engineering, selection, or fusion.
- Abstract(参考訳): 現在のカナダオリンピックフェンシングチームのデータ分析は、主にコーチとアナリストが手動で行う。
フェンシングにおける非常に反復的で動的で微妙な動きのため、手動のデータ分析は非効率で不正確である。
フェンシングにおけるきめ細かいフットワーク手法の分類を自動化する新しいアーキテクチャとしてFenceNetを提案する。
FenceNetは入力として2Dポーズデータを取り込み、時間的畳み込みネットワークを組み込んで時間的情報をキャプチャするスケルトンベースのアクション認識アプローチを使用してアクションを分類する。
フェンシングフットワークデータセット(ffd)上で,10~11回の繰り返しに対して6つの異なるフットワークアクションを実行する10人のフェンシングフットワークデータセット(ffd)をトレーニングし,評価した。
fencenetは、10倍のクロスバリデーションの下で85.4%の精度を実現している。
この精度は現在の最先端手法であるjlja (86.3%) の1%以内であり、スケルトンデータ、深度ビデオ、慣性測定単位から特徴を抽出・融合している。
BiFenceNetは、2つの異なるネットワークを通して人間の運動の「双方向性」を捉え、87.6%の精度でJLJAを上回っている。
FenceNetもBiFenceNetもウェアラブルセンサーからのデータを必要としないので、JLJAとは異なり、2Dのポーズデータを市販の2Dのポーズ推定器から抽出した入力として利用することで、ほとんどのフェンシングビデオに直接適用することができる。
jljaと比較して、手作業による機能エンジニアリング、選択、あるいは融合を必要としないため、メソッドもシンプルです。
関連論文リスト
- Portuguese Man-of-War Image Classification with Convolutional Neural
Networks [58.720142291102135]
ポルトガルマン・オブ・ウォー(ポルトガル語: Man-of-war、PMW)は、長い触手を持つゼラチン質の生物である。
本稿では,InstagramのソーシャルメディアからPMW画像を認識するための畳み込みニューラルネットワークの利用について報告する。
論文 参考訳(メタデータ) (2022-07-04T03:06:45Z) - F2DNet: Fast Focal Detection Network for Pedestrian Detection [3.9126596709410673]
2段階検出器は、歩行者検出と同様に物体検出の最先端技術である。
本稿では,現在の2段階検出器の冗長性を排除した新しい2段階検出アーキテクチャであるF2DNetを提案する。
当社のF2DNetは、1つのデータセットでトレーニングすると、それぞれシティパーソン、カルテックペデストリアン、ユーロシティパーソンのデータセットで8.7%、2.2%、および6.1%のMR-2を達成しています。
論文 参考訳(メタデータ) (2022-03-04T14:13:38Z) - Learning Tracking Representations via Dual-Branch Fully Transformer
Networks [82.21771581817937]
追従のためのトランスフォーマーのみをベースとした,シームズ型デュアルブランチネットワークを提案する。
注目ウィンドウ内の他のパッチとのマッチング結果に基づいて,各パッチの特徴ベクトルを抽出する。
この手法は、最高の性能の方法として、より良い結果または同等の結果を得る。
論文 参考訳(メタデータ) (2021-12-05T13:44:33Z) - DS-Net++: Dynamic Weight Slicing for Efficient Inference in CNNs and
Transformers [105.74546828182834]
本稿では,様々な難易度を持つ入力に対して,ネットワークパラメータの一部を適応的にスライスする動的ウェイトスライシングという,ハードウェア効率のよい動的推論方式を示す。
我々は、CNNのフィルタ数とCNNと変換器の多重次元を入力依存的に調整することで、動的スライム可能なネットワーク(DS-Net)と動的スライス可能なネットワーク(DS-Net++)を提案する。
論文 参考訳(メタデータ) (2021-09-21T09:57:21Z) - Tracklets Predicting Based Adaptive Graph Tracking [51.352829280902114]
マルチオブジェクト追跡,すなわち textbfTPAGT のための,正確かつエンドツーエンドの学習フレームワークを提案する。
動作予測に基づいて、現在のフレーム内のトラックレットの特徴を再抽出する。
論文 参考訳(メタデータ) (2020-10-18T16:16:49Z) - STINet: Spatio-Temporal-Interactive Network for Pedestrian Detection and
Trajectory Prediction [24.855059537779294]
本稿では、新しいエンドツーエンド2段階ネットワーク:spatio--Interactive Network(STINet)を提案する。
歩行者の3次元形状に加えて,歩行者ごとの時間情報をモデル化する。
提案手法は,1段目における現在位置と過去の位置の両方を予測し,各歩行者をフレーム間でリンクできるようにする。
論文 参考訳(メタデータ) (2020-05-08T18:43:01Z) - TTNet: Real-time temporal and spatial video analysis of table tennis [5.156484100374058]
本稿では,高精細度卓球ビデオのリアルタイム処理を目的としたニューラルネットワークを提案する。
このアプローチは、自動参照システムによるスコア更新を推論するためのコア情報を提供する。
イベントをラベル付けした120fpsのテーブルテニスゲームのビデオ付きマルチタスクデータセットOpenTTGamesを公開している。
論文 参考訳(メタデータ) (2020-04-21T11:57:51Z) - Event detection in coarsely annotated sports videos via parallel multi
receptive field 1D convolutions [14.30009544149561]
スポーツビデオ分析のような問題では、正確なフレームレベルのアノテーションと正確なイベント時間を得るのは難しい。
粗い注釈付きビデオにおけるイベント検出の課題を提案する。
本稿では,提案課題に対する多層時間畳み込みネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-04-13T19:51:25Z) - Disp R-CNN: Stereo 3D Object Detection via Shape Prior Guided Instance
Disparity Estimation [51.17232267143098]
ステレオ画像から3次元物体を検出するための新しいシステムDisp R-CNNを提案する。
我々は、LiDAR点雲を必要とせずに、統計的形状モデルを用いて、密度の異なる擬似地下構造を生成する。
KITTIデータセットの実験によると、LiDARの基盤構造がトレーニング時に利用できない場合でも、Disp R-CNNは競争性能を達成し、平均精度で従来の最先端手法を20%上回っている。
論文 参考訳(メタデータ) (2020-04-07T17:48:45Z) - FADNet: A Fast and Accurate Network for Disparity Estimation [18.05392578461659]
本研究では,FADNetという分散度推定のための効率的かつ高精度なディープネットワークを提案する。
高速な計算を保存するために、2Dベースの効率的な相関層と積み重ねブロックを利用する。
精度を向上させるために、マルチスケールの重みスケジューリングトレーニング技術を活用するために、マルチスケールの予測を含んでいる。
論文 参考訳(メタデータ) (2020-03-24T10:27:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。