論文の概要: RePose: A Real-Time 3D Human Pose Estimation and Biomechanical Analysis Framework for Rehabilitation
- arxiv url: http://arxiv.org/abs/2601.00625v1
- Date: Fri, 02 Jan 2026 09:48:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.550258
- Title: RePose: A Real-Time 3D Human Pose Estimation and Biomechanical Analysis Framework for Rehabilitation
- Title(参考訳): Repose: リアルタイムな3Dヒューマンポース推定とリハビリテーションのためのバイオメカニカル分析フレームワーク
- Authors: Junxiao Xue, Pavel Smirnov, Ziao Li, Yunyun Shi, Shi Chen, Xinyi Yin, Xiaohan Yue, Lei Wang, Yiduo Wang, Feng Lin, Yijia Chen, Xiao Ma, Xiaoran Yan, Qing Zhang, Fengjian Xue, Xuecheng Wu,
- Abstract要約: リハビリテーショントレーニングのためのRePoseと呼ばれるリアルタイムな3次元ポーズ推定と動作解析手法を提案する。
リハビリテーション中の患者の運動をリアルタイムにモニタリングし、評価することができる。
- 参考スコア(独自算出の注目度): 17.816327917592456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a real-time 3D human pose estimation and motion analysis method termed RePose for rehabilitation training. It is capable of real-time monitoring and evaluation of patients'motion during rehabilitation, providing immediate feedback and guidance to assist patients in executing rehabilitation exercises correctly. Firstly, we introduce a unified pipeline for end-to-end real-time human pose estimation and motion analysis using RGB video input from multiple cameras which can be applied to the field of rehabilitation training. The pipeline can help to monitor and correct patients'actions, thus aiding them in regaining muscle strength and motor functions. Secondly, we propose a fast tracking method for medical rehabilitation scenarios with multiple-person interference, which requires less than 1ms for tracking for a single frame. Additionally, we modify SmoothNet for real-time posture estimation, effectively reducing pose estimation errors and restoring the patient's true motion state, making it visually smoother. Finally, we use Unity platform for real-time monitoring and evaluation of patients' motion during rehabilitation, and to display the muscle stress conditions to assist patients with their rehabilitation training.
- Abstract(参考訳): リハビリテーショントレーニングのためのRePoseと呼ばれるリアルタイムな3次元ポーズ推定と動作解析手法を提案する。
リハビリテーション中の患者の運動のリアルタイムモニタリングと評価が可能であり、リハビリテーション演習を正しく実施するための即時フィードバックとガイダンスを提供する。
まず,複数カメラからのRGBビデオ入力を応用した,エンドツーエンドのポーズ推定と動作解析のための統合パイプラインを提案する。
パイプラインは患者の行動をモニターし、修正するのに役立つため、筋肉の強さと運動機能を取り戻すのに役立つ。
次に,複数対人干渉によるリハビリテーションシナリオの高速追跡手法を提案する。
さらに、リアルタイム姿勢推定のためにSmoothNetを修正し、ポーズ推定誤差を効果的に低減し、患者の真の動作状態を回復し、視覚的により滑らかにする。
最後に、リハビリテーション中の患者の運動のリアルタイムモニタリングと評価にUnityプラットフォームを使用し、リハビリテーショントレーニングを支援するために、筋ストレス条件を提示する。
関連論文リスト
- Rehabilitation Exercise Quality Assessment and Feedback Generation Using Large Language Models with Prompt Engineering [1.9827390755712084]
運動に基づくリハビリテーションは、生活の質を改善し、死亡率、死亡率、リハビリテーションを減らす。
仮想プラットフォームでは、患者が自宅で所定のエクササイズを完了し、AIアルゴリズムがパフォーマンスを分析し、フィードバックを提供し、臨床医を更新します。
本研究では,リハビリテーション訓練を行った患者の骨格関節から運動特異的な特徴を抽出し,訓練済み言語モデルに入力する手法を提案する。
論文 参考訳(メタデータ) (2025-05-23T22:39:10Z) - Skeleton-Based Transformer for Classification of Errors and Better Feedback in Low Back Pain Physical Rehabilitation Exercises [0.9094127664014627]
近年,身体リハビリテーション運動の質評価が著しく進歩している。
それらのほとんどは、パフォーマンスが正しいか間違っている場合にのみバイナリ分類を提供し、いくつかは連続的なスコアを提供する。
本研究では,リハビリテーション演習の誤り分類アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-03-28T10:30:39Z) - Multi-Modal Self-Supervised Learning for Surgical Feedback Effectiveness Assessment [66.6041949490137]
そこで本研究では,音声による音声入力とそれに対応する手術映像からの情報を統合して,フィードバックの有効性を予測する手法を提案する。
以上の結果から,手書きフィードバックと手術映像の両方が,訓練者の行動変化を個別に予測できることがわかった。
本研究は,手術フィードバックの自動評価を推進するためのマルチモーダル学習の可能性を示すものである。
論文 参考訳(メタデータ) (2024-11-17T00:13:00Z) - MotionTTT: 2D Test-Time-Training Motion Estimation for 3D Motion Corrected MRI [24.048132427816704]
高精度な動き推定のための深層学習に基づくテスト時間学習法を提案する。
本手法は, 単純な信号とニューラルネットワークモデルに対して, 動作パラメータを確実に再構成できることを示す。
論文 参考訳(メタデータ) (2024-09-14T08:51:33Z) - Analyzing Data Efficiency and Performance of Machine Learning Algorithms for Assessing Low Back Pain Physical Rehabilitation Exercises [1.3949483425295313]
ロボットコーチシステムを用いた身体リハビリの文脈における人間の動作分析に焦点をあてる。
この評価は、以前ロボットPoppyが指導した低背痛リハビリテーション演習を行う臨床患者の医療データベース上で実施される。
論文 参考訳(メタデータ) (2024-08-05T22:49:20Z) - A Medical Low-Back Pain Physical Rehabilitation Dataset for Human Body Movement Analysis [0.6990493129893111]
本稿では,低背痛リハビリテーションを施行した臨床患者の医療データセットについて,4つの課題に対処し,提案する。
データセットには、3D Kinectスケルトンの位置と向き、RGBビデオ、2Dスケルトンデータ、正確性を評価するための医用アノテーション、身体部分とタイムパンのエラー分類とローカライゼーションが含まれている。
論文 参考訳(メタデータ) (2024-06-29T19:50:06Z) - Design, Development, and Evaluation of an Interactive Personalized
Social Robot to Monitor and Coach Post-Stroke Rehabilitation Exercises [68.37238218842089]
パーソナライズされたリハビリテーションのための対話型ソーシャルロボット運動指導システムを開発した。
このシステムは、ニューラルネットワークモデルとルールベースのモデルを統合し、患者のリハビリテーション運動を自動的に監視し、評価する。
我々のシステムは,新たな参加者に適応し,専門家の合意レベルに匹敵する,エクササイズを評価するための平均パフォーマンス0.81を達成できる。
論文 参考訳(メタデータ) (2023-05-12T17:37:04Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - Vogtareuth Rehab Depth Datasets: Benchmark for Marker-less Posture
Estimation in Rehabilitation [55.41644538483948]
本研究では,リハビリテーションを行う患者の深度画像と2次元ポーズ情報を含む2つのリハビリテーション特異的ポーズデータセットを提案する。
我々は、非リハブベンチマークデータセットに基づいてトレーニングされた、最先端のマーカーレス姿勢推定モデルを用いている。
私たちのデータセットは、リハビリ特有の複雑な姿勢を検出するために、ポーズモデルを訓練するのに使用できます。
論文 参考訳(メタデータ) (2021-08-23T16:18:26Z) - Motion Pyramid Networks for Accurate and Efficient Cardiac Motion
Estimation [51.72616167073565]
本研究では,心臓の運動推定を高精度かつ効率的に行うための,ディープラーニングに基づく新しいアプローチであるMotion Pyramid Networksを提案する。
我々は、複数の特徴表現から運動場のピラミッドを予測し、融合し、より洗練された運動場を生成する。
そこで我々は,新しい循環型教員教育戦略を用いて,推論をエンドツーエンドにし,トラッキング性能をさらに向上させる。
論文 参考訳(メタデータ) (2020-06-28T21:03:19Z) - A Review of Computational Approaches for Evaluation of Rehabilitation
Exercises [58.720142291102135]
本稿では,モーションキャプチャシステムを用いたリハビリテーションプログラムにおける患者のパフォーマンスを評価するための計算手法についてレビューする。
エクササイズ評価のための再検討された計算手法は, 離散的な運動スコア, ルールベース, テンプレートベースアプローチの3つのカテゴリに分類される。
論文 参考訳(メタデータ) (2020-02-29T22:18:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。