論文の概要: Comparison of Kinematics and Kinetics Between OpenCap and a Marker-Based Motion Capture System in Cycling
- arxiv url: http://arxiv.org/abs/2409.03766v3
- Date: Wed, 30 Apr 2025 15:19:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:51.987467
- Title: Comparison of Kinematics and Kinetics Between OpenCap and a Marker-Based Motion Capture System in Cycling
- Title(参考訳): サイクリングにおけるOpenCapとマーカーベースモーションキャプチャシステム間の運動学と運動学の比較
- Authors: Reza Kakavand, Reza Ahmadi, Atousa Parsaei, W. Brent Edwards, Amin Komeili,
- Abstract要約: 本研究は, サイクリング時の関節運動学および運動学評価におけるマーカーベースおよびマーカーレスモーションキャプチャシステム(OpenCap)の適合性を評価する。
OpenSimを用いて, 関節角度, モーメント, 関節反応負荷などの重要な指標を計算した。
その結果, 股関節(屈曲・伸展), 膝(屈曲・伸展), 足首(背屈・足関節屈曲)の関節角度について非常に強い一致(r GT 0.9)を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study evaluates the agreement of marker-based and markerless (OpenCap) motion capture systems in assessing joint kinematics and kinetics during cycling. Markerless systems, such as OpenCap, offer the advantage of capturing natural movements without physical markers, making them more practical for real-world applications. However, the agreement of OpenCap with a marker-based system, particularly in cycling, remains underexplored. Ten participants cycled at varying speeds and resistances while motion data were recorded using both systems. Key metrics, including joint angles, moments, and joint reaction loads, were computed using OpenSim and compared using root mean squared error (RMSE) per trial across participants, Pearson correlation coefficients (r) per trial across participants and repeated measures Bland-Altman to control trials dependency within subject. Results revealed very strong agreement (r GT 0.9) for hip (flexion/extension), knee (flexion/extension), and ankle (dorsiflexion/plantarflexion) joint angles.
- Abstract(参考訳): 本研究は, サイクリング時の関節運動学および運動学評価におけるマーカーベースおよびマーカーレスモーションキャプチャシステム(OpenCap)の適合性を評価する。
OpenCapのようなマーカーレスシステムは、物理的なマーカーを使わずに自然の動きをキャプチャする利点を提供する。
しかし、マーカーベースのシステム、特にサイクリングにおけるOpenCapとの合意は未定である。
10人の参加者は異なる速度と抵抗でサイクルし、モーションデータは両方のシステムで記録された。
共同角度,モーメント,共同反応負荷などの重要な指標をOpenSimを用いて計算し,被験者間での試行平均二乗誤差 (RMSE) ,参加者間での試行毎のピアソン相関係数 (r) ,被験者内での試行依存性を制御するBland-Altmanを繰り返し測定した。
その結果, 股関節(屈曲・伸展), 膝(屈曲・伸展), 足関節(背屈・足関節屈曲) について非常に強い一致(r GT 0.9)を示した。
関連論文リスト
- Learning Cortico-Muscular Dependence through Orthonormal Decomposition of Density Ratios [39.3721526159124]
本研究では,皮質振動と筋振動の関係をモデル化するために,密度比の正則分解に基づく統計的依存推定器の新たな応用を提案する。
本研究では,皮質筋接続から学習した固有関数が,運動と被験者を正確に分類できることを実験的に実証した。
論文 参考訳(メタデータ) (2024-10-04T16:05:08Z) - FinePseudo: Improving Pseudo-Labelling through Temporal-Alignablity for Semi-Supervised Fine-Grained Action Recognition [57.17966905865054]
実生活における行動認識の応用は、しばしば微妙な動きのきめ細かい理解を必要とする。
既存の半教師ありアクション認識は主に粗いアクション認識に焦点を当てている。
そこで我々は,微粒なアクションペアの識別を効果的に行うための,アライナビリティ検証に基づくメトリック学習手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T20:08:06Z) - Real-time, accurate, and open source upper-limb musculoskeletal analysis using a single RGBD camera [0.14999444543328289]
バイオメカニカルバイオフィードバックは、リハビリテーションを強化し、より客観的なタスク評価を提供する。
我々のオープンソースアプローチは、単一の低コストのRGBDカメラを使用して、高忠実な上肢キネマティクスのためのユーザフレンドリーなソリューションを提供します。
論文 参考訳(メタデータ) (2024-06-14T13:20:05Z) - OpenCapBench: A Benchmark to Bridge Pose Estimation and Biomechanics [2.2188004943970627]
我々はOpenCapBenchを開発し、人間のポーズ推定における共通タスクを評価するために、使いやすく統一されたベンチマークを提供する。
OpenCapBenchは、オープンソースの筋骨格モデリングソフトウェア(OpenSim)が提供する関節角度を通して一貫した運動量を計算する
我々は、事前訓練された2次元ポーズモデルの微調整を可能にする新しいアプローチであるSynthPoseを導入し、正確なキネマティック解析のために、より密集したキーポイントセットを予測する。
論文 参考訳(メタデータ) (2024-06-14T07:37:28Z) - Differentiable Biomechanics Unlocks Opportunities for Markerless Motion
Capture [2.44755919161855]
微分物理学シミュレータはGPU上で加速することができる。
これらのシミュレータは,逆運動学とマーカーレスモーションキャプチャーデータとの適合性を示す。
論文 参考訳(メタデータ) (2024-02-27T04:18:15Z) - 3D Kinematics Estimation from Video with a Biomechanical Model and
Synthetic Training Data [4.130944152992895]
2つの入力ビューから3Dキネマティクスを直接出力するバイオメカニクス対応ネットワークを提案する。
実験により, 提案手法は, 合成データにのみ訓練されたものであり, 従来の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-02-20T17:33:40Z) - Intelligent Knee Sleeves: A Real-time Multimodal Dataset for 3D Lower
Body Motion Estimation Using Smart Textile [2.2008680042670123]
本稿では,人間のポーズ推定のために,Intelligent Knee Sleevesの新たなペアを用いてベンチマークを収集したマルチモーダルデータセットを提案する。
本システムは,Knee Sleevesの時系列データと,可視化されたモーションキャプチャーカメラシステムからの対応する地上真実ラベルからなる同期データセットを利用する。
我々はこれらを用いて、異なる活動を行う個人のウェアラブルデータのみに基づく3次元人体モデルを生成する。
論文 参考訳(メタデータ) (2023-10-02T00:34:21Z) - QuestSim: Human Motion Tracking from Sparse Sensors with Simulated
Avatars [80.05743236282564]
人間の身体の動きのリアルタイム追跡は、AR/VRにおける没入感のある体験に不可欠である。
本稿では,HMDと2つのコントローラから疎信号を取り出す強化学習フレームワークを提案する。
一つのポリシーは、多様な移動スタイル、異なる体の大きさ、新しい環境に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:25:54Z) - CycleTrans: Learning Neutral yet Discriminative Features for
Visible-Infrared Person Re-Identification [79.84912525821255]
Visible-infrared person re-identification (VI-ReID) は、可視・赤外線モダリティ間で同一人物をマッチングするタスクである。
既存のVI-ReID手法は主に、特徴識別性を犠牲にして、モダリティを越えて一般的な特徴を学習することに焦点を当てている。
ニュートラルかつ差別的な特徴学習のための新しいサイクル構築型ネットワークであるCycleTransを提案する。
論文 参考訳(メタデータ) (2022-08-21T08:41:40Z) - Hierarchical Compositional Representations for Few-shot Action
Recognition [51.288829293306335]
本稿では,新しい階層型合成表現(HCR)学習手法を提案する。
複雑なアクションを、慎重に設計された階層的クラスタリングによって、いくつかのサブアクションに分割する。
また、輸送問題において、サブアクション表現の観点から、ビデオサンプル間の類似度を測定するために、アースモーバー距離(Earth Mover's Distance)を採用した。
論文 参考訳(メタデータ) (2022-08-19T16:16:59Z) - Kinematics Modeling Network for Video-based Human Pose Estimation [9.506011491028891]
ビデオから人間のポーズを推定することは、人間とコンピュータの相互作用において重要である。
関節は人間の動きの中で独立して動くのではなく協力する。
関節間の時間的相関を明示的にモデル化するためのKMM(プラグイン・アンド・プレイ・キネマティクス・モデリング・モジュール)を提案する。
論文 参考訳(メタデータ) (2022-07-22T09:37:48Z) - Joint-bone Fusion Graph Convolutional Network for Semi-supervised
Skeleton Action Recognition [65.78703941973183]
本稿では,CD-JBF-GCNをエンコーダとし,ポーズ予測ヘッドをデコーダとして使用する新しい相関駆動型ジョイントボーン・フュージョングラフ畳み込みネットワークを提案する。
具体的には、CD-JBF-GCは、関節ストリームと骨ストリームの間の運動伝達を探索することができる。
自己教師型トレーニング段階におけるポーズ予測に基づくオートエンコーダにより、未ラベルデータから動作表現を学習することができる。
論文 参考訳(メタデータ) (2022-02-08T16:03:15Z) - SOMA: Solving Optical Marker-Based MoCap Automatically [56.59083192247637]
我々はSOMAと呼ばれる新しいニューラルネットワークを訓練し、モカプポイントの雲をさまざまな数のポイントで取り、それらを大規模にラベル付けする。
Somaは、3Dボディの空間構造を学ぶために、自己注意要素を積み重ねたアーキテクチャを利用する。
4つのデータセットにまたがる8時間以上のアーカイブモキャップデータを自動的にラベル付けします。
論文 参考訳(メタデータ) (2021-10-09T02:27:27Z) - Neural Monocular 3D Human Motion Capture with Physical Awareness [76.55971509794598]
物理的に可塑性なマーカーレス3次元モーションキャプチャのための新しいトレーニングシステムを提案する。
人間のモーションキャプチャのためのほとんどのニューラルな手法とは異なり、我々のアプローチは物理的および環境的な制約を認識している。
様々な場面でインタラクティブなフレームレートで、滑らかで物理的に原理化された3dモーションを生成する。
論文 参考訳(メタデータ) (2021-05-03T17:57:07Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - Online Body Schema Adaptation through Cost-Sensitive Active Learning [63.84207660737483]
この作業は、icubロボットシミュレータの7dofアームを使用して、シミュレーション環境で実行された。
コストに敏感な能動学習手法は最適な関節構成を選択するために用いられる。
その結果,コスト依存型能動学習は標準的な能動学習手法と同等の精度を示し,実行運動の約半分を減らした。
論文 参考訳(メタデータ) (2021-01-26T16:01:02Z) - Recovering Trajectories of Unmarked Joints in 3D Human Actions Using
Latent Space Optimization [16.914342116747825]
モーションキャプチャ(モキャップ)と飛行時間に基づく人間の行動の検知は、ロバストな活動分析を行うために、ますます人気が高まっている。
しかし、可視性、エラーの追跡、マーカーの設定を便利に保つ必要性など、両方のモダリティにはいくつかの実践的な課題がある。
本稿では,非マーク付き関節データの再構成を不備な線形逆問題として扱う。
モカプデータセットとKinectデータセットの両方の実験により、提案手法が行方不明な関節の動作や運動のセマンティクスを回復するのに非常に有効であることを明らかにした。
論文 参考訳(メタデータ) (2020-12-03T16:25:07Z) - Human Leg Motion Tracking by Fusing IMUs and RGB Camera Data Using
Extended Kalman Filter [4.189643331553922]
IMUベースのシステムとMarkerベースのモーショントラッキングシステムは、実装コストが低く軽量であるため、ムーブメントを追跡する最も一般的な方法である。
本稿では、カメラマーカーシステムデータと融合したIMUセンサデータを用いて、四元数に基づく拡張カルマンフィルタを用いて、人間の足のセグメントの動きを復元する手法を提案する。
論文 参考訳(メタデータ) (2020-11-01T17:54:53Z) - PhysCap: Physically Plausible Monocular 3D Motion Capture in Real Time [89.68248627276955]
シングルカラーカメラからのマーカレス3Dモーションキャプチャは、大きな進歩を遂げた。
しかし、これは非常に困難な問題であり、深刻な問題である。
我々はPhysCapについて紹介する。PhysCapは物理的に可塑性でリアルタイムでマーカーのない人間の3Dモーションキャプチャのための最初のアルゴリズムである。
論文 参考訳(メタデータ) (2020-08-20T10:46:32Z) - MotioNet: 3D Human Motion Reconstruction from Monocular Video with
Skeleton Consistency [72.82534577726334]
モノクロビデオから3次元人間の骨格の動きを直接再構成するディープニューラルネットワークであるMotioNetを紹介した。
本手法は,動作表現を完全かつ一般的に使用するキネマティックスケルトンを直接出力する最初のデータ駆動型手法である。
論文 参考訳(メタデータ) (2020-06-22T08:50:09Z) - Foreseeing the Benefits of Incidental Supervision [83.08441990812636]
本稿では,実験を行なわずに,特定の目標タスクに対して,様々な種類の偶発信号の利点を定量化できるかどうかを考察する。
本稿では,PABI(PAC-Bayesian motivated informativeness measure)を提案する。
論文 参考訳(メタデータ) (2020-06-09T20:59:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。