論文の概要: Quantifying Jump Height Using Markerless Motion Capture with a Single
Smartphone
- arxiv url: http://arxiv.org/abs/2302.10749v1
- Date: Tue, 21 Feb 2023 15:59:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 14:34:53.753526
- Title: Quantifying Jump Height Using Markerless Motion Capture with a Single
Smartphone
- Title(参考訳): シングルスマートフォンを用いたマーカーレスモーションキャプチャによるジャンプ高さの定量化
- Authors: Timilehin B. Aderinola, Hananeh Younesian, Darragh Whelan, Brian
Caulfield, Georgiana Ifrim
- Abstract要約: 反動ジャンプ(英: countermovement jump、CMJ)は、一般的に下半身の爆発力を測定するために用いられる。
本研究では,一方のスマートフォンを用いたマーカーレスモーションキャプチャー(MMC)が,両側および片側CMJジャンプ高さを測定することができるかを評価する。
- 参考スコア(独自算出の注目度): 7.930706311542447
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Goal: The countermovement jump (CMJ) is commonly used to measure the
explosive power of the lower body. This study evaluates how accurately
markerless motion capture (MMC) with a single smartphone can measure bilateral
and unilateral CMJ jump height. Methods: First, three repetitions each of
bilateral and unilateral CMJ were performed by sixteen healthy adults (mean
age: 30.87 $\pm$ 7.24 years; mean BMI: 23.14 $\pm$ 2.55 $kg/m^2$) on force
plates and simultaneously captured using optical motion capture (OMC) and one
smartphone camera. Next, MMC was performed on the smartphone videos using
OpenPose. Then, we evaluated MMC in quantifying jump height using the force
plate and OMC as ground truths. Results: MMC quantifies jump heights with MAE
between 1.47 and 2.82 cm, and ICC between 0.84 and 0.99 without manual
segmentation and camera calibration. Conclusions: Our results suggest that
using a single smartphone for markerless motion capture is feasible.
Index Terms - Countermovement jump, Markerless motion capture, Optical motion
capture, Jump height.
Impact Statement - Countermovement jump height can be accurately quantified
using markerless motion capture with a single smartphone, with a simple setup
that requires neither camera calibration nor manual segmentation.
- Abstract(参考訳): ゴール: 反動ジャンプ(CMJ)は一般的に下半身の爆発力を測定するために使用される。
本研究では,スマートフォン1台でcmjのジャンプ高さを計測できるマーカレスモーションキャプチャ(mmc)の精度について検討した。
方法: まず、左右のCMJの3つの繰り返しが16人の健康な成人(平均年齢:30.87ドル\pm$7.24年、平均BMI:23.14ドル\pm$2.55ドルkg/m^2$)によって行われ、同時に光学式モーションキャプチャ(OMC)と1台のスマートフォンカメラで撮影された。
次に、MMCはOpenPoseを使ってスマートフォンのビデオで実行された。
そして, 力板とOMCを基礎事実として, ジャンプ高さの定量評価を行った。
結果: mmc は mae を 1.47 cm から 2.82 cm に,icc を 0.84 から 0.99 に設定し,手作業によるセグメンテーションやカメラキャリブレーションは行わない。
結論: スマートフォン1台でマーカーレスモーションキャプチャが実現可能であることが示唆された。
インデックス用語 - 逆移動ジャンプ、マーカーレスモーションキャプチャ、光学モーションキャプチャ、ジャンプ高さ。
インパクト・ステートメント - カメラのキャリブレーションも手動のセグメンテーションも不要な単純な設定で、1台のスマートフォンでマーカーレスモーションキャプチャーを使用して、ジャンプの高さを正確に定量化できる。
関連論文リスト
- OpenCap markerless motion capture estimation of lower extremity kinematics and dynamics in cycling [0.0]
マーカレスモーションキャプチャは、従来のマーカーベースのシステムよりもいくつかの利点がある。
システムは人体のランドマークを直接検出することができ、手作業による処理やマーカーの配置に伴うエラーを減らすことができる。
本研究では,マーカーレスモーションキャプチャシステムであるOpenCapと,サイクリングバイオメカニクス評価における従来のマーカーベースシステムとの比較を行った。
論文 参考訳(メタデータ) (2024-08-20T15:57:40Z) - Motion Capture from Inertial and Vision Sensors [60.5190090684795]
MINIONSは、INertialとvisION Sensorsから収集された大規模なモーションキャプチャーデータセットである。
単眼カメラと極めて少ないIMUを用いたマルチモーダルモーションキャプチャの実験を行った。
論文 参考訳(メタデータ) (2024-07-23T09:41:10Z) - Real-time, accurate, and open source upper-limb musculoskeletal analysis using a single RGBD camera [0.14999444543328289]
バイオメカニカルバイオフィードバックは、リハビリテーションを強化し、より客観的なタスク評価を提供する。
我々のオープンソースアプローチは、単一の低コストのRGBDカメラを使用して、高忠実な上肢キネマティクスのためのユーザフレンドリーなソリューションを提供します。
論文 参考訳(メタデータ) (2024-06-14T13:20:05Z) - Machine Vision-Enabled Sports Performance Analysis [4.554306274125363]
本研究では,単一スマートフォンを用いた単眼2Dマーカーレスモーションキャプチャ(MMC)の実現可能性について検討した。
MMCはジャンプ高さと速度測定において地中真理と良好な一致を示した。
MMCの性能は飛行時間、接触時間、ROM、角速度の測定において低から中程度に変化した。
論文 参考訳(メタデータ) (2023-12-18T16:43:46Z) - UCMCTrack: Multi-Object Tracking with Uniform Camera Motion Compensation [9.333052173412158]
カメラの動きに頑健な新しいモーションモデルベースのトラッカーであるUCMCTrackを紹介する。
フレーム単位で補償パラメータを計算する従来のCMCとは異なり、UCMCTrackはビデオシーケンスを通して同じ補償パラメータを一貫して適用する。
MOT17、MOT20、DanceTrack、KITTIなど、さまざまな課題のあるデータセットで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-12-14T14:01:35Z) - W-HMR: Monocular Human Mesh Recovery in World Space with Weak-Supervised Calibration [57.37135310143126]
モノクロ画像からの3次元運動回復のための従来の手法は、カメラ座標に依存するため、しばしば不足する。
W-HMRは、身体の歪み情報に基づいて「適切な」焦点長を予測する弱教師付き校正法である。
また,世界空間における可視的再構築のために,身体の向きを補正する OrientCorrect モジュールを提案する。
論文 参考訳(メタデータ) (2023-11-29T09:02:07Z) - Metric3D: Towards Zero-shot Metric 3D Prediction from A Single Image [85.91935485902708]
ゼロショット単視距離深度モデルの鍵は、大規模データトレーニングと様々なカメラモデルからの距離あいまいさの解消の組合せにあることを示す。
本稿では,あいまいさ問題に明示的に対処し,既存の単分子モデルにシームレスに接続可能な標準カメラ空間変換モジュールを提案する。
本手法は, ランダムに収集したインターネット画像上での計測3次元構造の正確な復元を可能にする。
論文 参考訳(メタデータ) (2023-07-20T16:14:23Z) - PMI Sampler: Patch Similarity Guided Frame Selection for Aerial Action
Recognition [52.78234467516168]
本稿では、隣接フレーム間の動きバイアスを定量化するために、パッチ相互情報(PMI)スコアの概念を導入する。
シフトリークReLuと累積分布関数を用いた適応フレーム選択方式を提案する。
本手法は,UAV-Humanの2.2~13.8%,NEC Droneの6.8%,Diving48データセットの9.0%の相対的な改善を実現している。
論文 参考訳(メタデータ) (2023-04-14T00:01:11Z) - SmartMocap: Joint Estimation of Human and Camera Motion using
Uncalibrated RGB Cameras [49.110201064166915]
複数のRGBカメラからのマーカーレス人間のモーションキャプチャ(モキャップ)は、広く研究されている問題である。
既存の方法は、モキャップシステムの基準フレームとして機能するスタティックカメラに対して、キャリブレーションされたカメラを必要とするか、あるいはそれらをキャリブレーションする必要がある。
複数の静止・移動可能なRGBカメラを用いたモキャップ方式を提案する。
論文 参考訳(メタデータ) (2022-09-28T08:21:04Z) - HybridCap: Inertia-aid Monocular Capture of Challenging Human Motions [41.56735523771541]
軽量なハイブリッドモキャップ技術であるHybridCapを提案する。
カメラを4つの慣性測定ユニット(IMU)で拡張し、学習と最適化のフレームワークを組み込む。
フィットネスアクションからラテンダンスまで、挑戦的な動きをしっかりと処理できる。
論文 参考訳(メタデータ) (2022-03-17T12:30:17Z) - Minimal Solutions for Panoramic Stitching Given Gravity Prior [53.047330182598124]
我々は,光学中心が一致するカメラで撮影した画像のパノラマ画像縫合に対する最小限の解を提案する。
固定長や焦点距離の変動を視線歪みの有無で仮定し, 4つの実用的なカメラ構成について検討した。
シンセサイザーは、合成シーンと、Sun360データセットから500万枚以上の実画像のペアと、IMUを搭載した2台のスマートフォンを使って、私たちによって撮影されたシーンの両方でテストされる。
論文 参考訳(メタデータ) (2020-12-01T13:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。