論文の概要: Comparison of Visual Trackers for Biomechanical Analysis of Running
- arxiv url: http://arxiv.org/abs/2505.04713v1
- Date: Wed, 07 May 2025 18:04:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.635897
- Title: Comparison of Visual Trackers for Biomechanical Analysis of Running
- Title(参考訳): ランニングのバイオメカニカル解析のための視覚トラッカーの比較
- Authors: Luis F. Gomez, Gonzalo Garrido-Lopez, Julian Fierrez, Aythami Morales, Ruben Tolosana, Javier Rueda, Enrique Navarro,
- Abstract要約: 本研究は, スプリントにおけるバイオメカニカル解析のための6つのトラッカー, 2つのポイントトラッカーと4つのジョイントトラッカーの性能を解析する。
実験的なフレームワークでは、5人のプロランナーから40のスプリントが採用されている。
ジョイントベースモデルを使用することで、11.41degから4.37degまでのルート平均2乗誤差が得られる。
- 参考スコア(独自算出の注目度): 12.12643642515884
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Human pose estimation has witnessed significant advancements in recent years, mainly due to the integration of deep learning models, the availability of a vast amount of data, and large computational resources. These developments have led to highly accurate body tracking systems, which have direct applications in sports analysis and performance evaluation. This work analyzes the performance of six trackers: two point trackers and four joint trackers for biomechanical analysis in sprints. The proposed framework compares the results obtained from these pose trackers with the manual annotations of biomechanical experts for more than 5870 frames. The experimental framework employs forty sprints from five professional runners, focusing on three key angles in sprint biomechanics: trunk inclination, hip flex extension, and knee flex extension. We propose a post-processing module for outlier detection and fusion prediction in the joint angles. The experimental results demonstrate that using joint-based models yields root mean squared errors ranging from 11.41{\deg} to 4.37{\deg}. When integrated with the post-processing modules, these errors can be reduced to 6.99{\deg} and 3.88{\deg}, respectively. The experimental findings suggest that human pose tracking approaches can be valuable resources for the biomechanical analysis of running. However, there is still room for improvement in applications where high accuracy is required.
- Abstract(参考訳): 人間のポーズ推定は近年,ディープラーニングモデルの統合,大量のデータの利用,膨大な計算資源などによって,大きな進歩を遂げている。
これらの発達は、スポーツ分析やパフォーマンス評価に直接応用できる、高精度な身体追跡システムへと繋がった。
本研究は, スプリントにおけるバイオメカニカル解析のための6つのトラッカー, 2つのポイントトラッカーと4つのジョイントトラッカーの性能を解析する。
提案手法は, 5870フレーム以上のバイオメカニカル専門家の手動アノテーションと比較した。
実験的なフレームワークでは,5人のプロランナーによる40のスプリントが採用されており,トランク傾斜,股関節屈曲伸展,膝屈曲伸展という,スプリントバイオメカニクスの3つの重要な角度に注目している。
関節角度における外乱検出と融合予測のための後処理モジュールを提案する。
実験結果から, 結合モデルを用いた場合, 11.41{\deg から 4.37{\deg までのルート平均二乗誤差が生じることがわかった。
後処理モジュールと統合すると、これらのエラーはそれぞれ 6.99{\deg} と 3.88{\deg} に減少する。
実験結果から,人間のポーズトラッキングアプローチは,ランニングの生体力学的解析に有用であることが示唆された。
しかし、高い精度を必要とするアプリケーションにはまだ改善の余地がある。
関連論文リスト
- Deep Learning for Human Locomotion Analysis in Lower-Limb Exoskeletons: A Comparative Study [1.3569491184708433]
本稿では,8つのディープニューラルネットワークのバックボーンによる高レベル移動パラメータの予測実験を行った。
LSTMは高い地形分類精度(0.94 +- 0.04)と正確な傾斜斜面(1.95 +- 0.58deg)、CNN-LSTMは階段の高さ(15.65 +- 7.40 mm)を達成した。
システムは2ミリ秒の推論時間で動作し、リアルタイムアプリケーションをサポートする。
論文 参考訳(メタデータ) (2025-03-21T07:12:44Z) - VideoRun2D: Cost-Effective Markerless Motion Capture for Sprint Biomechanics [12.12643642515884]
スプリントは、特にチームスポーツにおいて、決定的な能力である。スプリントのキネマティクスは、過去にさまざまな方法で研究されてきた。
本研究はまず, 現実的な生体力学解析に2つの一般的なトラッカーを適用し, それらを手動追跡と比較して評価する。
我々は,特にスプリントバイオメカニクスに適応したマーカーレスボディトラッカーを VideoRun2D と呼ぶ。
論文 参考訳(メタデータ) (2024-09-16T11:10:48Z) - Leveraging Digital Perceptual Technologies for Remote Perception and Analysis of Human Biomechanical Processes: A Contactless Approach for Workload and Joint Force Assessment [4.96669107440958]
本研究では,産業環境下での人間の動きの分析を目的とした,革新的なコンピュータビジョンフレームワークを提案する。
このフレームワークは、人間の動作の包括的な精査を可能にし、運動パターンや運動データに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2024-04-02T02:12:00Z) - SMPLer-X: Scaling Up Expressive Human Pose and Shape Estimation [83.18930314027254]
表現的人間のポーズと形状推定(EHPS)は、身体、手、顔の動きを多数の応用で統合する。
本研究では,VT-Huge をバックボーンとする第1次一般基礎モデル (SMPLer-X) に向けた EHPS のスケールアップについて検討する。
ビッグデータと大規模モデルにより、SMPLer-Xは、さまざまなテストベンチマークにまたがる強力なパフォーマンスと、目に見えない環境への優れた転送性を示す。
論文 参考訳(メタデータ) (2023-09-29T17:58:06Z) - Markerless Motion Capture and Biomechanical Analysis Pipeline [0.0]
マーカーレスモーションキャプチャーは、正確な動き分析へのアクセスを拡大する可能性がある。
当パイプラインでは,リハビリテーション病院における運動の正確なバイオメカニカル推定値の取得が容易である。
論文 参考訳(メタデータ) (2023-03-19T13:31:57Z) - Few-shot human motion prediction for heterogeneous sensors [5.210197476419621]
空間グラフを明示的に組み込んだ最初の数発のモーションアプローチを導入する。
固定出力空間でタスクを評価する場合、これまでのベストアプローチと同等に動作できることが示される。
論文 参考訳(メタデータ) (2022-12-22T15:06:24Z) - Joint Feature Learning and Relation Modeling for Tracking: A One-Stream
Framework [76.70603443624012]
特徴学習と関係モデリングを統合した新しい一ストリーム追跡(OSTrack)フレームワークを提案する。
このようにして、相互誘導により識別的目標指向特徴を動的に抽出することができる。
OSTrackは、複数のベンチマークで最先端のパフォーマンスを実現しており、特に、ワンショットトラッキングベンチマークのGOT-10kでは印象的な結果を示している。
論文 参考訳(メタデータ) (2022-03-22T18:37:11Z) - Transforming Model Prediction for Tracking [109.08417327309937]
トランスフォーマーは、誘導バイアスの少ないグローバルな関係を捉え、より強力なターゲットモデルの予測を学ぶことができる。
提案したトラッカーをエンドツーエンドにトレーニングし、複数のトラッカーデータセットに関する総合的な実験を行うことで、その性能を検証する。
我々のトラッカーは3つのベンチマークで新しい技術状態を設定し、挑戦的なLaSOTデータセットで68.5%のAUCを達成した。
論文 参考訳(メタデータ) (2022-03-21T17:59:40Z) - Learning Dynamics via Graph Neural Networks for Human Pose Estimation
and Tracking [98.91894395941766]
ポーズ検出とは無関係なポーズダイナミクスを学習する新しいオンライン手法を提案する。
具体的には、空間的・時間的情報と視覚的情報の両方を明示的に考慮したグラフニューラルネットワーク(GNN)を通して、このダイナミクスの予測を導出する。
PoseTrack 2017とPoseTrack 2018データセットの実験では、提案手法が人間のポーズ推定とトラッキングタスクの両方において、技術の現状よりも優れた結果が得られることを示した。
論文 参考訳(メタデータ) (2021-06-07T16:36:50Z) - AcinoSet: A 3D Pose Estimation Dataset and Baseline Models for Cheetahs
in the Wild [51.35013619649463]
我々はAcinoSetと呼ばれる野生のフリーランニングチーターの広範なデータセットを提示する。
データセットには、119,490フレームのマルチビュー同期高速ビデオ映像、カメラキャリブレーションファイル、7,588フレームが含まれている。
また、結果の3D軌道、人間チェックされた3D地上真実、およびデータを検査するインタラクティブツールも提供される。
論文 参考訳(メタデータ) (2021-03-24T15:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。