論文の概要: Transforming Gait: Video-Based Spatiotemporal Gait Analysis
- arxiv url: http://arxiv.org/abs/2203.09371v1
- Date: Thu, 17 Mar 2022 14:57:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 19:22:54.993402
- Title: Transforming Gait: Video-Based Spatiotemporal Gait Analysis
- Title(参考訳): Transforming Gait: ビデオベースの時空間歩行分析
- Authors: R. James Cotton, Emoonah McClerklin, Anthony Cimorelli, Ankit Patel,
Tasos Karakostas
- Abstract要約: 歩行分析は、通常は専用の実験室で行われ、運動学やステップタイミングを含む正確な測定結果を生成する。
我々は3次元関節軌跡と個体の高さを解釈可能な生体力学的出力にマッピングするためにニューラルネットワークを訓練した。
- 参考スコア(独自算出の注目度): 1.749935196721634
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Human pose estimation from monocular video is a rapidly advancing field that
offers great promise to human movement science and rehabilitation. This
potential is tempered by the smaller body of work ensuring the outputs are
clinically meaningful and properly calibrated. Gait analysis, typically
performed in a dedicated lab, produces precise measurements including
kinematics and step timing. Using over 7000 monocular video from an
instrumented gait analysis lab, we trained a neural network to map 3D joint
trajectories and the height of individuals onto interpretable biomechanical
outputs including gait cycle timing and sagittal plane joint kinematics and
spatiotemporal trajectories. This task specific layer produces accurate
estimates of the timing of foot contact and foot off events. After parsing the
kinematic outputs into individual gait cycles, it also enables accurate
cycle-by-cycle estimates of cadence, step time, double and single support time,
walking speed and step length.
- Abstract(参考訳): モノキュラービデオからの人間のポーズ推定は、人間の運動科学とリハビリテーションに大きく貢献する、急速に進歩する分野である。
この可能性は、アウトプットが臨床的に有意義で適切に調整されていることを保証する小さな作業によって引き起こされる。
歩行分析は、主に専用の実験室で行われ、運動学やステップのタイミングなどの正確な測定を行う。
歩行解析実験室の7000本以上の単眼映像を用いて、歩行周期タイミングや矢状面関節運動学、時空間軌跡などの解釈可能な生体力学的出力に3次元関節軌跡と個体の高さをマッピングするニューラルネットワークを訓練した。
このタスク固有層は、足の接触と足のオフイベントのタイミングを正確に推定する。
運動出力を個々の歩行サイクルに解析した後、リズム、ステップタイム、ダブルおよびシングルサポートタイム、歩行速度、ステップ長さの正確なサイクル・バイ・サイクル推定を可能にする。
関連論文リスト
- 3D Kinematics Estimation from Video with a Biomechanical Model and
Synthetic Training Data [4.130944152992895]
2つの入力ビューから3Dキネマティクスを直接出力するバイオメカニクス対応ネットワークを提案する。
実験により, 提案手法は, 合成データにのみ訓練されたものであり, 従来の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-02-20T17:33:40Z) - Advancing Monocular Video-Based Gait Analysis Using Motion Imitation
with Physics-Based Simulation [2.07180164747172]
我々は、強化学習を用いて人間の動きの物理シミュレーションを制御し、ビデオで見られる動きを再現する。
これにより、推定された歩幅と歩行速度の精度を向上しつつ、推定された動きを物理的に可塑性にすることができる。
論文 参考訳(メタデータ) (2024-02-20T02:48:58Z) - Pose2Gait: Extracting Gait Features from Monocular Video of Individuals
with Dementia [3.2739089842471136]
認知症高齢者の歩行の映像に基づく環境モニタリングは、健康のネガティブな変化を検出する可能性がある。
コンピュータビジョンに基づくポーズトラッキングモデルは、ビデオデータを自動的に処理し、関節位置を抽出することができる。
これらのモデルは、高齢者や臨床集団の歩行分析に最適化されていない。
論文 参考訳(メタデータ) (2023-08-22T14:59:17Z) - Markerless Motion Capture and Biomechanical Analysis Pipeline [0.0]
マーカーレスモーションキャプチャーは、正確な動き分析へのアクセスを拡大する可能性がある。
当パイプラインでは,リハビリテーション病院における運動の正確なバイオメカニカル推定値の取得が容易である。
論文 参考訳(メタデータ) (2023-03-19T13:31:57Z) - Towards Single Camera Human 3D-Kinematics [15.559206592078425]
深層ニューラルネットワークを用いたビデオから直接3次元人体動推定D3KEを提案する。
実験により,提案したエンドツーエンドトレーニングは頑健であり,2次元および3次元マーカーレスモーションキャプチャに基づく運動推定パイプラインよりも優れていた。
論文 参考訳(メタデータ) (2023-01-13T08:44:09Z) - Imposing Temporal Consistency on Deep Monocular Body Shape and Pose
Estimation [67.23327074124855]
本稿では,適合過程における時間的制約の統合に対するエレガントな解法を提案する。
我々は、顎ポーズ、表情、指ポーズを含む人物の形状と動きを表す一連の身体モデルのパラメーターを導出する。
本手法は,表情や手話を含む画像系列からリアルな3次元体モデルの導出を可能にする。
論文 参考訳(メタデータ) (2022-02-07T11:11:55Z) - AcinoSet: A 3D Pose Estimation Dataset and Baseline Models for Cheetahs
in the Wild [51.35013619649463]
我々はAcinoSetと呼ばれる野生のフリーランニングチーターの広範なデータセットを提示する。
データセットには、119,490フレームのマルチビュー同期高速ビデオ映像、カメラキャリブレーションファイル、7,588フレームが含まれている。
また、結果の3D軌道、人間チェックされた3D地上真実、およびデータを検査するインタラクティブツールも提供される。
論文 参考訳(メタデータ) (2021-03-24T15:54:11Z) - PhysCap: Physically Plausible Monocular 3D Motion Capture in Real Time [89.68248627276955]
シングルカラーカメラからのマーカレス3Dモーションキャプチャは、大きな進歩を遂げた。
しかし、これは非常に困難な問題であり、深刻な問題である。
我々はPhysCapについて紹介する。PhysCapは物理的に可塑性でリアルタイムでマーカーのない人間の3Dモーションキャプチャのための最初のアルゴリズムである。
論文 参考訳(メタデータ) (2020-08-20T10:46:32Z) - Contact and Human Dynamics from Monocular Video [73.47466545178396]
既存のディープモデルは、ほぼ正確に見えるエラーを含むビデオから2Dと3Dキネマティックのポーズを予測する。
本稿では,最初の2次元と3次元のポーズ推定を入力として,映像系列から3次元の人間の動きを推定する物理に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-22T21:09:11Z) - Learning Motion Flows for Semi-supervised Instrument Segmentation from
Robotic Surgical Video [64.44583693846751]
本研究は,スパースアノテーションを用いたロボット手術ビデオから半教師楽器のセグメンテーションについて検討する。
生成されたデータペアを利用することで、我々のフレームワークはトレーニングシーケンスの時間的一貫性を回復し、強化することができます。
その結果,本手法は最先端の半教師あり手法よりも大きなマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-06T02:39:32Z) - Pedestrian orientation dynamics from high-fidelity measurements [65.06084067891364]
本研究では,歩行者の運動の一般的な物理的特性に基づいて学習するディープ・ニューラル・アーキテクチャに基づく新しい計測手法を提案する。
提案手法は, 誤差を7.5度まで低減し, 向きを推定できることを示す。
このツールは、方向が鍵となる人間の群集力学の研究において、新たな可能性を開く。
論文 参考訳(メタデータ) (2020-01-14T07:08:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。