論文の概要: Monocular Markerless Motion Capture Enables Quantitative Assessment of Upper Extremity Reachable Workspace
- arxiv url: http://arxiv.org/abs/2602.13176v1
- Date: Fri, 13 Feb 2026 18:36:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:54.08003
- Title: Monocular Markerless Motion Capture Enables Quantitative Assessment of Upper Extremity Reachable Workspace
- Title(参考訳): 上肢到達作業空間の定量的評価を可能にする単眼マーカーレスモーションキャプチャ
- Authors: Seth Donahue, J. D. Peiffer, R. Tyler Richardson, Yishan Zhong, Shaun Q. Y. Tan, Benoit Marteau, Stephanie R. Russo, May D. Wang, R. James Cotton, Ross Chafetz,
- Abstract要約: 上肢到達作業空間を定量化するための臨床的にアクセス可能なアプローチを検証する。
生体力学解析のための単眼カメラとAI駆動型マーカーレスモーションキャプチャー(MMC)
検出は、UERWアセスメントのための前面単眼カメラ構成の実現性をサポートする。
- 参考スコア(独自算出の注目度): 1.7520168411745887
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To validate a clinically accessible approach for quantifying the Upper Extremity Reachable Workspace (UERW) using a single (monocular) camera and Artificial Intelligence (AI)-driven Markerless Motion Capture (MMC) for biomechanical analysis. Objective assessment and validation of these techniques for specific clinically oriented tasks are crucial for their adoption in clinical motion analysis. AI-driven monocular MMC reduces the barriers to adoption in the clinic and has the potential to reduce the overhead for analysis of this common clinical assessment. Nine adult participants with no impairments performed the standardized UERW task, which entails reaching targets distributed across a virtual sphere centered on the torso, with targets displayed in a VR headset. Movements were simultaneously captured using a marker-based motion capture system and a set of eight FLIR cameras. We performed monocular video analysis on two of these video camera views to compare a frontal and offset camera configurations. The frontal camera orientation demonstrated strong agreement with the marker-based reference, exhibiting a minimal mean bias of $0.61 \pm 0.12$ \% reachspace reached per octanct (mean $\pm$ standard deviation). In contrast, the offset camera view underestimated the percent workspace reached ($-5.66 \pm 0.45$ \% reachspace reached). Conclusion: The findings support the feasibility of a frontal monocular camera configuration for UERW assessment, particularly for anterior workspace evaluation where agreement with marker-based motion capture was highest. The overall performance demonstrates clinical potential for practical, single-camera assessments. This study provides the first validation of monocular MMC system for the assessment of the UERW task. By reducing technical complexity, this approach enables broader implementation of quantitative upper extremity mobility assessment.
- Abstract(参考訳): 単眼カメラとAI駆動のマークレスモーションキャプチャ(MMC)を用いて上極端到達作業空間(UERW)を定量化するための臨床的に利用可能なアプローチを検証する。
特定の臨床目的のタスクに対するこれらの手法の客観的評価と検証は、臨床運動分析における導入に不可欠である。
AI駆動の単分子MCCは、クリニックでの採用障壁を減らし、この一般的な臨床評価の分析のオーバーヘッドを減らす可能性がある。
障害のない9人の成人参加者が標準化されたUERWタスクを実行した。
動きはマーカーベースのモーションキャプチャシステムと8台のFLIRカメラで同時に捉えられた。
この2つのビデオカメラビューでモノクロビデオ解析を行い、前景とオフセットのカメラ構成を比較した。
前部カメラの配向はマーカーベースの基準と強い一致を示し、平均偏差は0.61 \pm 0.12$ \%である(平均偏差は0.61 \pm 0.12$ \%)。
対照的に、オフセットカメラのビューはワークスペースの割合を過小評価している(5.66 \pm 0.45$ \%)。
結語:UERW評価における前頭葉単眼カメラ構成の有用性,特にマーカーに基づくモーションキャプチャーとの一致が最も高い前部作業空間評価に有効であった。
全体的なパフォーマンスは、実用的、単一カメラアセスメントの臨床的可能性を示している。
本研究は,UERWタスク評価のための単分子MCCシステムの最初の検証である。
技術的複雑さを減らすことにより、定量的な上肢移動度評価のより広範な実装が可能になる。
関連論文リスト
- Paving the Way Towards Kinematic Assessment Using Monocular Video: A Preclinical Benchmark of State-of-the-Art Deep-Learning-Based 3D Human Pose Estimators Against Inertial Sensors in Daily Living Activities [1.3854111346209868]
本研究は、慣性計測ユニット(IMU)を用いた単眼映像に基づく3次元ポーズ推定モデルの比較である。
IMUデータから計算した関節角度に対して,最先端のディープラーニングフレームワークから得られる関節角度を評価した。
MotionAGFormerは優れた性能を示し、RMSE全体の最低値を達成した。
論文 参考訳(メタデータ) (2025-10-02T17:44:31Z) - Rethinking Evaluation of Infrared Small Target Detection [105.59753496831739]
本稿では,画素レベルと目標レベルのパフォーマンスを取り入れたハイブリッドレベルのメトリクスを導入し,システム的エラー解析手法を提案し,クロスデータセット評価の重要性を強調した。
標準化されたベンチマークを容易にするオープンソースツールキットがリリースされた。
論文 参考訳(メタデータ) (2025-09-21T02:45:07Z) - STROKEVISION-BENCH: A Multimodal Video And 2D Pose Benchmark For Tracking Stroke Recovery [41.140934816875806]
StrokeVision-Benchは、脳卒中患者が臨床的に構造化されたブロック転送タスクを行う最初の専用データセットである。
StrokeVision-Benchは、1000本の注釈付きビデオを4つの臨床的に意味のあるアクションクラスに分類する。
我々は,現在最先端のビデオアクション認識と骨格に基づく動作分類手法のベンチマークを行い,性能ベースラインを確立する。
論文 参考訳(メタデータ) (2025-09-02T18:48:37Z) - Validation of Human Pose Estimation and Human Mesh Recovery for Extracting Clinically Relevant Motion Data from Videos [79.62407455005561]
人間のポーズ推定を用いたマーカーレスモーションキャプチャは、IMUとMoCapのキネマティクスの結果とインラインで結果を生成する。
生成するデータの品質に関してはまだ改善の余地がありますが、この妥協はエラーの部屋にあると考えています。
論文 参考訳(メタデータ) (2025-03-18T22:18:33Z) - Real-time, accurate, and open source upper-limb musculoskeletal analysis using a single RGBD camera [0.14999444543328289]
バイオメカニカルバイオフィードバックは、リハビリテーションを強化し、より客観的なタスク評価を提供する。
我々のオープンソースアプローチは、単一の低コストのRGBDカメラを使用して、高忠実な上肢キネマティクスのためのユーザフレンドリーなソリューションを提供します。
論文 参考訳(メタデータ) (2024-06-14T13:20:05Z) - A webcam-based machine learning approach for three-dimensional range of
motion evaluation [5.520419627866446]
関節可動域(ROM)は理学療法において重要な定量的指標である。
この研究は、ウェブカメラを介してリモートでアクセス可能な機械学習ベースのROM評価手法を提示し、評価する。
論文 参考訳(メタデータ) (2023-10-11T09:12:42Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose Estimation of Surgical Instruments [64.59698930334012]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。