論文の概要: Quantifying Jump Height Using Markerless Motion Capture with a Single
Smartphone
- arxiv url: http://arxiv.org/abs/2302.10749v2
- Date: Fri, 16 Jun 2023 16:10:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-19 17:45:29.513458
- Title: Quantifying Jump Height Using Markerless Motion Capture with a Single
Smartphone
- Title(参考訳): シングルスマートフォンを用いたマーカーレスモーションキャプチャによるジャンプ高さの定量化
- Authors: Timilehin B. Aderinola, Hananeh Younesian, Darragh Whelan, Brian
Caulfield, Georgiana Ifrim
- Abstract要約: 反動ジャンプ(英: countermovement jump、CMJ)は、低体力の爆発力を測定するために一般的に用いられる。
本研究では,一方のスマートフォンを用いたマーカーレスモーションキャプチャー(MMC)が,両側および片側CMJジャンプ高さを測定することができるかを評価する。
- 参考スコア(独自算出の注目度): 7.930706311542447
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Goal: The countermovement jump (CMJ) is commonly used to measure lower-body
explosive power. This study evaluates how accurately markerless motion capture
(MMC) with a single smartphone can measure bilateral and unilateral CMJ jump
height. Methods: First, three repetitions each of bilateral and unilateral CMJ
were performed by sixteen healthy adults (mean age: 30.87$\pm$7.24 years; mean
BMI: 23.14$\pm$2.55 $kg/m^2$) on force plates and simultaneously captured using
optical motion capture (OMC) and one smartphone camera. Next, MMC was performed
on the smartphone videos using OpenPose. Then, we evaluated MMC in quantifying
jump height using the force plate and OMC as ground truths. Results: MMC
quantifies jump heights with ICC between 0.84 and 0.99 without manual
segmentation and camera calibration. Conclusions: Our results suggest that
using a single smartphone for markerless motion capture is promising.
Index Terms - Countermovement jump, Markerless motion capture, Optical motion
capture, Jump height.
Impact Statement - Countermovement jump height can be accurately quantified
using markerless motion capture with a single smartphone, with a simple setup
that requires neither camera calibration nor manual segmentation.
- Abstract(参考訳): ゴール: 反動ジャンプ(CMJ)は、一般的に下半身の爆発力を測定するために使用される。
本研究では,スマートフォン1台でcmjのジャンプ高さを計測できるマーカレスモーションキャプチャ(mmc)の精度について検討した。
方法: まず, 健常成人16名 (平均年齢: 30.87$\pm$7.24年, 平均bmi: 23.14$\pm$2.55$kg/m^2$) で, 光モーションキャプチャ (omc) とスマートフォンカメラ1台で撮影した。
次に、MMCはOpenPoseを使ってスマートフォンのビデオで実行された。
そして, 力板とOMCを基礎事実として, ジャンプ高さの定量評価を行った。
結果:MCCは手動のセグメンテーションとカメラキャリブレーションなしでICCが0.84から0.99のジャンプ高さを定量化する。
結論: スマートフォン1台でマーカーレスモーションキャプチャを実現することは有望であることが示唆された。
インデックス用語 - 逆移動ジャンプ、マーカーレスモーションキャプチャ、光学モーションキャプチャ、ジャンプ高さ。
インパクト・ステートメント - カメラのキャリブレーションも手動のセグメンテーションも不要な単純な設定で、1台のスマートフォンでマーカーレスモーションキャプチャーを使用して、ジャンプの高さを正確に定量化できる。
関連論文リスト
- OpenCap markerless motion capture estimation of lower extremity kinematics and dynamics in cycling [0.0]
マーカレスモーションキャプチャは、従来のマーカーベースのシステムよりもいくつかの利点がある。
システムは人体のランドマークを直接検出することができ、手作業による処理やマーカーの配置に伴うエラーを減らすことができる。
本研究では,マーカーレスモーションキャプチャシステムであるOpenCapと,サイクリングバイオメカニクス評価における従来のマーカーベースシステムとの比較を行った。
論文 参考訳(メタデータ) (2024-08-20T15:57:40Z) - Motion Capture from Inertial and Vision Sensors [60.5190090684795]
MINIONSは、INertialとvisION Sensorsから収集された大規模なモーションキャプチャーデータセットである。
単眼カメラと極めて少ないIMUを用いたマルチモーダルモーションキャプチャの実験を行った。
論文 参考訳(メタデータ) (2024-07-23T09:41:10Z) - Real-time, accurate, and open source upper-limb musculoskeletal analysis using a single RGBD camera [0.14999444543328289]
バイオメカニカルバイオフィードバックは、リハビリテーションを強化し、より客観的なタスク評価を提供する。
我々のオープンソースアプローチは、単一の低コストのRGBDカメラを使用して、高忠実な上肢キネマティクスのためのユーザフレンドリーなソリューションを提供します。
論文 参考訳(メタデータ) (2024-06-14T13:20:05Z) - Machine Vision-Enabled Sports Performance Analysis [4.554306274125363]
本研究では,単一スマートフォンを用いた単眼2Dマーカーレスモーションキャプチャ(MMC)の実現可能性について検討した。
MMCはジャンプ高さと速度測定において地中真理と良好な一致を示した。
MMCの性能は飛行時間、接触時間、ROM、角速度の測定において低から中程度に変化した。
論文 参考訳(メタデータ) (2023-12-18T16:43:46Z) - UCMCTrack: Multi-Object Tracking with Uniform Camera Motion Compensation [9.333052173412158]
カメラの動きに頑健な新しいモーションモデルベースのトラッカーであるUCMCTrackを紹介する。
フレーム単位で補償パラメータを計算する従来のCMCとは異なり、UCMCTrackはビデオシーケンスを通して同じ補償パラメータを一貫して適用する。
MOT17、MOT20、DanceTrack、KITTIなど、さまざまな課題のあるデータセットで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-12-14T14:01:35Z) - W-HMR: Monocular Human Mesh Recovery in World Space with Weak-Supervised Calibration [57.37135310143126]
モノクロ画像からの3次元運動回復のための従来の手法は、カメラ座標に依存するため、しばしば不足する。
W-HMRは、身体の歪み情報に基づいて「適切な」焦点長を予測する弱教師付き校正法である。
また,世界空間における可視的再構築のために,身体の向きを補正する OrientCorrect モジュールを提案する。
論文 参考訳(メタデータ) (2023-11-29T09:02:07Z) - Metric3D: Towards Zero-shot Metric 3D Prediction from A Single Image [85.91935485902708]
ゼロショット単視距離深度モデルの鍵は、大規模データトレーニングと様々なカメラモデルからの距離あいまいさの解消の組合せにあることを示す。
本稿では,あいまいさ問題に明示的に対処し,既存の単分子モデルにシームレスに接続可能な標準カメラ空間変換モジュールを提案する。
本手法は, ランダムに収集したインターネット画像上での計測3次元構造の正確な復元を可能にする。
論文 参考訳(メタデータ) (2023-07-20T16:14:23Z) - PMI Sampler: Patch Similarity Guided Frame Selection for Aerial Action
Recognition [52.78234467516168]
本稿では、隣接フレーム間の動きバイアスを定量化するために、パッチ相互情報(PMI)スコアの概念を導入する。
シフトリークReLuと累積分布関数を用いた適応フレーム選択方式を提案する。
本手法は,UAV-Humanの2.2~13.8%,NEC Droneの6.8%,Diving48データセットの9.0%の相対的な改善を実現している。
論文 参考訳(メタデータ) (2023-04-14T00:01:11Z) - SmartMocap: Joint Estimation of Human and Camera Motion using
Uncalibrated RGB Cameras [49.110201064166915]
複数のRGBカメラからのマーカーレス人間のモーションキャプチャ(モキャップ)は、広く研究されている問題である。
既存の方法は、モキャップシステムの基準フレームとして機能するスタティックカメラに対して、キャリブレーションされたカメラを必要とするか、あるいはそれらをキャリブレーションする必要がある。
複数の静止・移動可能なRGBカメラを用いたモキャップ方式を提案する。
論文 参考訳(メタデータ) (2022-09-28T08:21:04Z) - HybridCap: Inertia-aid Monocular Capture of Challenging Human Motions [41.56735523771541]
軽量なハイブリッドモキャップ技術であるHybridCapを提案する。
カメラを4つの慣性測定ユニット(IMU)で拡張し、学習と最適化のフレームワークを組み込む。
フィットネスアクションからラテンダンスまで、挑戦的な動きをしっかりと処理できる。
論文 参考訳(メタデータ) (2022-03-17T12:30:17Z) - Minimal Solutions for Panoramic Stitching Given Gravity Prior [53.047330182598124]
我々は,光学中心が一致するカメラで撮影した画像のパノラマ画像縫合に対する最小限の解を提案する。
固定長や焦点距離の変動を視線歪みの有無で仮定し, 4つの実用的なカメラ構成について検討した。
シンセサイザーは、合成シーンと、Sun360データセットから500万枚以上の実画像のペアと、IMUを搭載した2台のスマートフォンを使って、私たちによって撮影されたシーンの両方でテストされる。
論文 参考訳(メタデータ) (2020-12-01T13:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。