論文の概要: Predicting TUG score from gait characteristics with video analysis and
machine learning
- arxiv url: http://arxiv.org/abs/2003.00875v2
- Date: Tue, 28 Apr 2020 11:34:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 09:10:59.573025
- Title: Predicting TUG score from gait characteristics with video analysis and
machine learning
- Title(参考訳): 映像解析と機械学習による歩行特性からのTUGスコアの推定
- Authors: Jian Ma
- Abstract要約: Timed Up and Go (TUG)テストは、転倒リスク評価のための一般的なツールである。
ビデオから抽出した歩行特性からTUGスコアを予測する手法を提案する。
- 参考スコア(独自算出の注目度): 2.3980064191633232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fall is a leading cause of death which suffers the elderly and society. Timed
Up and Go (TUG) test is a common tool for fall risk assessment. In this paper,
we propose a method for predicting TUG score from gait characteristics
extracted from video with computer vision and machine learning technologies.
First, 3D pose is estimated from video captured with 2D and 3D cameras during
human motion and then a group of gait characteristics are computed from 3D pose
series. After that, copula entropy is used to select those characteristics
which are mostly associated with TUG score. Finally, the selected
characteristics are fed into the predictive models to predict TUG score.
Experiments on real world data demonstrated the effectiveness of the proposed
method. As a byproduct, the associations between TUG score and several gait
characteristics are discovered, which laid the scientific foundation of the
proposed method and make the predictive models such built interpretable to
clinical users.
- Abstract(参考訳): 転倒は、高齢者や社会を苦しめる主要な死因である。
timed up and go(tug)テストは、フォールリスクアセスメントの一般的なツールです。
本稿では,コンピュータビジョンと機械学習技術を用いた映像から抽出した歩行特性からTUGスコアを予測する手法を提案する。
まず、人間の動作中に2Dと3Dカメラで撮影した映像から3Dポーズを推定し、3Dポーズシリーズから歩行特性のグループを計算する。
その後、コプラエントロピーを用いて、主にTUGスコアに関連する特徴を選択する。
最後に、選択した特徴を予測モデルに入力し、TUGスコアを予測する。
実世界データを用いた実験により,提案手法の有効性が示された。
副産物としてTUGスコアといくつかの歩行特性の関連が発見され,提案手法の科学的基礎を築き,臨床利用者に解釈可能な予測モデルを構築した。
関連論文リスト
- An Exploratory Study on Human-Centric Video Anomaly Detection through Variational Autoencoders and Trajectory Prediction [2.3349787245442966]
ビデオ異常検出(VAD)はコンピュータビジョンにおける課題であり、目立った研究課題である。
本稿では,人間中心型2ストリームグラフ改善型異常検出システムTSGADを紹介する。
ベンチマークデータセットの総合的な実験を通じてTSGADの有効性を実証する。
論文 参考訳(メタデータ) (2024-04-29T14:25:06Z) - Context-based Interpretable Spatio-Temporal Graph Convolutional Network
for Human Motion Forecasting [0.0]
本稿では,効率的な3次元ポーズ予測モデルとしてコンテキスト解釈型時空間グラフネットワーク(IST-GCN)を提案する。
提案アーキテクチャでは,ポーズシーケンスから意味のある情報を抽出し,入力モデルにアグリゲーションとアクセラレーションを集約し,最終的に出力変位を予測する。
論文 参考訳(メタデータ) (2024-02-21T17:51:30Z) - Pose2Gait: Extracting Gait Features from Monocular Video of Individuals
with Dementia [3.2739089842471136]
認知症高齢者の歩行の映像に基づく環境モニタリングは、健康のネガティブな変化を検出する可能性がある。
コンピュータビジョンに基づくポーズトラッキングモデルは、ビデオデータを自動的に処理し、関節位置を抽出することができる。
これらのモデルは、高齢者や臨床集団の歩行分析に最適化されていない。
論文 参考訳(メタデータ) (2023-08-22T14:59:17Z) - T3VIP: Transformation-based 3D Video Prediction [49.178585201673364]
本稿では,シーンを対象部品に分解することで3次元動きを明示的にモデル化する3次元映像予測手法を提案する。
我々のモデルは、完全に教師なしであり、現実世界の性質を捉え、画像と点のクラウド領域における観察の手がかりがその学習信号を構成する。
我々の知る限り、我々のモデルは、静止カメラの未来をRGB-Dビデオで予測する最初の生成モデルである。
論文 参考訳(メタデータ) (2022-09-19T15:01:09Z) - Self-Supervised Face Presentation Attack Detection with Dynamic
Grayscale Snippets [0.342658286826597]
顔提示攻撃検出(PAD)は、顔認識システムにおいて、提示攻撃に対して重要な役割を果たす。
本稿では,ラベル付きデータのコストのかかる収集を避けるために,動き予測による自己教師付き映像表現学習手法を提案する。
論文 参考訳(メタデータ) (2022-08-27T18:34:13Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - An Attention-based Method for Action Unit Detection at the 3rd ABAW
Competition [6.229820412732652]
本稿では,2022年の第3回ABAW(Affective Behavior Analysis in-the-Wild)コンテストへの参加について述べる。
映像中の顔の動きを検知する手法を提案する。
ABAWチャレンジ検証セットのマクロF1スコアは0.48であり,ベースラインモデルでは0.39であった。
論文 参考訳(メタデータ) (2022-03-23T14:07:39Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z) - Self-Attentive 3D Human Pose and Shape Estimation from Videos [82.63503361008607]
3D人間のポーズと形状推定のためのビデオベースの学習アルゴリズムを紹介します。
ビデオの時間情報を利用して自己着脱モジュールを提案する。
本手法を3DPW, MPI-INF-3DHP, Human3.6Mデータセット上で評価した。
論文 参考訳(メタデータ) (2021-03-26T00:02:19Z) - Self-Supervised 3D Human Pose Estimation via Part Guided Novel Image
Synthesis [72.34794624243281]
ラベルのないビデオフレームからバリエーションを分離する自己教師付き学習フレームワークを提案する。
3Dポーズと空間部分マップの表現ギャップを埋める、微分可能な形式化により、多様なカメラの動きを持つビデオで操作できる。
論文 参考訳(メタデータ) (2020-04-09T07:55:01Z) - Anatomy-aware 3D Human Pose Estimation with Bone-based Pose
Decomposition [92.99291528676021]
3次元関節位置を直接回帰するのではなく,骨方向予測と骨長予測に分解する。
私たちのモチベーションは、人間の骨格の骨の長さが時間とともに一定であることにあります。
我々の完全なモデルは、Human3.6MとMPI-INF-3DHPデータセットにおいて、以前の最高の結果よりも優れています。
論文 参考訳(メタデータ) (2020-02-24T15:49:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。