論文の概要: Pose2Gait: Extracting Gait Features from Monocular Video of Individuals
with Dementia
- arxiv url: http://arxiv.org/abs/2308.11484v1
- Date: Tue, 22 Aug 2023 14:59:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 17:37:05.882230
- Title: Pose2Gait: Extracting Gait Features from Monocular Video of Individuals
with Dementia
- Title(参考訳): Pose2Gait:認知症患者の単眼映像から歩行特徴を抽出する
- Authors: Caroline Malin-Mayor, Vida Adeli, Andrea Sabo, Sergey Noritsyn,
Carolina Gorodetsky, Alfonso Fasano, Andrea Iaboni, Babak Taati
- Abstract要約: 認知症高齢者の歩行の映像に基づく環境モニタリングは、健康のネガティブな変化を検出する可能性がある。
コンピュータビジョンに基づくポーズトラッキングモデルは、ビデオデータを自動的に処理し、関節位置を抽出することができる。
これらのモデルは、高齢者や臨床集団の歩行分析に最適化されていない。
- 参考スコア(独自算出の注目度): 3.2739089842471136
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video-based ambient monitoring of gait for older adults with dementia has the
potential to detect negative changes in health and allow clinicians and
caregivers to intervene early to prevent falls or hospitalizations. Computer
vision-based pose tracking models can process video data automatically and
extract joint locations; however, publicly available models are not optimized
for gait analysis on older adults or clinical populations. In this work we
train a deep neural network to map from a two dimensional pose sequence,
extracted from a video of an individual walking down a hallway toward a
wall-mounted camera, to a set of three-dimensional spatiotemporal gait features
averaged over the walking sequence. The data of individuals with dementia used
in this work was captured at two sites using a wall-mounted system to collect
the video and depth information used to train and evaluate our model. Our
Pose2Gait model is able to extract velocity and step length values from the
video that are correlated with the features from the depth camera, with
Spearman's correlation coefficients of .83 and .60 respectively, showing that
three dimensional spatiotemporal features can be predicted from monocular
video. Future work remains to improve the accuracy of other features, such as
step time and step width, and test the utility of the predicted values for
detecting meaningful changes in gait during longitudinal ambient monitoring.
- Abstract(参考訳): 認知症高齢者に対するビデオベースの歩行環境モニタリングは、健康の悪変化を検知し、臨床医や介護者が早期に介入して転倒や入院を防ぐ可能性を秘めている。
コンピュータビジョンに基づくポーズ追跡モデルは、ビデオデータを自動処理して関節の位置を抽出することができるが、一般のモデルは高齢者や臨床患者に対する歩行分析に最適化されていない。
本研究では,2次元のポーズシーケンスから,廊下を歩いた個人が壁面カメラに向かって歩く様子から抽出した映像から,歩行シーケンス上で平均される3次元時空間的歩行特徴のセットにマッピングする深層ニューラルネットワークを訓練する。
本研究で用いた認知症者のデータは,壁面搭載システムを用いて2箇所で撮影され,トレーニングおよび評価に用いた映像と深度情報を収集した。
我々のPose2Gaitモデルは、深度カメラの特徴と相関する映像から速度と歩幅の値を取り出すことができ、Spearmanの相関係数は .83 と .60 であり、3次元の時空間的特徴をモノクロビデオから予測できることを示している。
今後,歩幅や歩幅などの他の特徴の精度向上や,縦断的環境モニタリングにおける歩行の有意義な変化を検出するための予測値の有用性の検証が図られる。
関連論文リスト
- Occlusion-Aware 3D Motion Interpretation for Abnormal Behavior Detection [10.782354892545651]
我々は,メッシュ頂点とヒト関節の3次元座標をモノクロビデオから再構成し,運動異常を識別するOAD2Dを提案する。
動作特徴の定量化にVQVAEを用いるM2Tモデルと組み合わせることで、異常姿勢推定を再構成する。
本研究は, 重度・自己閉塞性に対する異常行動検出のロバスト性を示すものである。
論文 参考訳(メタデータ) (2024-07-23T18:41:16Z) - Coordinate Transformer: Achieving Single-stage Multi-person Mesh
Recovery from Videos [91.44553585470688]
ビデオから複数人の3Dメッシュを回収することは、バーチャルリアリティーや理学療法などにおけるグループ行動の自動認識に向けた重要な第一歩である。
本稿では,複数人物の時空間関係を直接モデル化し,同時にエンドツーエンドでマルチ・メッシュ・リカバリを行うコーディネート・トランスフォーマーを提案する。
3DPWデータセットの実験では、CoordFormerが最先端の精度を大幅に向上し、MPJPE、PAMPJPE、PVEの計測値でそれぞれ4.2%、8.8%、そして4.7%を上回った。
論文 参考訳(メタデータ) (2023-08-20T18:23:07Z) - Kinematic-aware Hierarchical Attention Network for Human Pose Estimation
in Videos [17.831839654593452]
従来の人間のポーズ推定手法は, 連続するフレームの特徴を活用することで, 有望な結果を示した。
ほとんどのアプローチでは、ジッターに精度を妥協し、人間の動きの時間的側面を理解しない。
キネマティックなキーポイント機能を利用するアーキテクチャを設計する。
論文 参考訳(メタデータ) (2022-11-29T01:46:11Z) - MixSTE: Seq2seq Mixed Spatio-Temporal Encoder for 3D Human Pose
Estimation in Video [75.23812405203778]
近年, 学習時間相関のため, 全フレームのボディジョイントを世界規模で考慮し, 2次元キーポイントシーケンスから3次元人間のポーズを推定する手法が提案されている。
本研究では,各関節の時間的動きを別々にモデル化する時間的変圧器ブロックと,関節間空間相関を有する変圧器ブロックを有するミキシングミキシングを提案する。
さらに、ネットワーク出力は、中央フレームから入力ビデオの全フレームに拡張され、入力と出力のベンチマーク間のコヒーレンスが改善される。
論文 参考訳(メタデータ) (2022-03-02T04:20:59Z) - Real-Time Human Pose Estimation on a Smart Walker using Convolutional
Neural Networks [4.076099054649463]
スマートウォーカのコンテキストにおける患者モニタリングとデータ駆動型ヒューマン・イン・ザ・ループ制御に対する新しいアプローチを提案する。
完全かつコンパクトなボディ表現を、リアルタイムおよび安価なセンサーから抽出することができる。
有望な結果にもかかわらず、現実のシナリオにおけるリハビリテーションツールとしてのパフォーマンスを評価するために、障害のあるユーザにより多くのデータを収集する必要がある。
論文 参考訳(メタデータ) (2021-06-28T14:11:48Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z) - Self-Attentive 3D Human Pose and Shape Estimation from Videos [82.63503361008607]
3D人間のポーズと形状推定のためのビデオベースの学習アルゴリズムを紹介します。
ビデオの時間情報を利用して自己着脱モジュールを提案する。
本手法を3DPW, MPI-INF-3DHP, Human3.6Mデータセット上で評価した。
論文 参考訳(メタデータ) (2021-03-26T00:02:19Z) - Towards Real-time Drowsiness Detection for Elderly Care [0.0]
本稿では,高齢者が単独で生活するのを助けるために,ビデオから眠気情報を抽出する概念を実証する。
そこで我々は,OpenCVと統合された深層学習モデルのトレーニングとテストのために,映像から3000枚の画像を抽出した。
論文 参考訳(メタデータ) (2020-10-21T05:48:59Z) - A Graph Attention Spatio-temporal Convolutional Network for 3D Human
Pose Estimation in Video [7.647599484103065]
我々は,アテンション機構を用いた局所的グローバル空間情報のモデリングにより,人間の骨格における制約の学習を改善する。
提案手法は, 奥行きのあいまいさと自己閉塞性を効果的に軽減し, 半上半身推定を一般化し, 2次元から3次元映像のポーズ推定における競合性能を実現する。
論文 参考訳(メタデータ) (2020-03-11T14:54:40Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z) - Anatomy-aware 3D Human Pose Estimation with Bone-based Pose
Decomposition [92.99291528676021]
3次元関節位置を直接回帰するのではなく,骨方向予測と骨長予測に分解する。
私たちのモチベーションは、人間の骨格の骨の長さが時間とともに一定であることにあります。
我々の完全なモデルは、Human3.6MとMPI-INF-3DHPデータセットにおいて、以前の最高の結果よりも優れています。
論文 参考訳(メタデータ) (2020-02-24T15:49:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。