論文の概要: REST-HANDS: Rehabilitation with Egocentric Vision Using Smartglasses for Treatment of Hands after Surviving Stroke
- arxiv url: http://arxiv.org/abs/2409.20116v1
- Date: Mon, 30 Sep 2024 09:14:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-02 18:56:57.474673
- Title: REST-HANDS: Rehabilitation with Egocentric Vision Using Smartglasses for Treatment of Hands after Surviving Stroke
- Title(参考訳): REST-HANDS: ストローク後の手の治療にスマートグラスを用いた自我中心視によるリハビリテーション
- Authors: Wiktor Mucha, Kentaro Tanaka, Martin Kampel,
- Abstract要約: ストロークは世界第3の死因であり、世界的な健康問題として認識されている。
伝統的なリハビリテーションは継続的な医療支援を必要とし、貯蓄された医療システムに依存している。
我々は、市販のスマートグラス、特にRayBan Storiesのエゴセントリックな録音をリモートハンドリカバリに利用することを探る。
- 参考スコア(独自算出の注目度): 1.3723120574076129
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Stroke represents the third cause of death and disability worldwide, and is recognised as a significant global health problem. A major challenge for stroke survivors is persistent hand dysfunction, which severely affects the ability to perform daily activities and the overall quality of life. In order to regain their functional hand ability, stroke survivors need rehabilitation therapy. However, traditional rehabilitation requires continuous medical support, creating dependency on an overburdened healthcare system. In this paper, we explore the use of egocentric recordings from commercially available smart glasses, specifically RayBan Stories, for remote hand rehabilitation. Our approach includes offline experiments to evaluate the potential of smart glasses for automatic exercise recognition, exercise form evaluation and repetition counting. We present REST-HANDS, the first dataset of egocentric hand exercise videos. Using state-of-the-art methods, we establish benchmarks with high accuracy rates for exercise recognition (98.55%), form evaluation (86.98%), and repetition counting (mean absolute error of 1.33). Our study demonstrates the feasibility of using egocentric video from smart glasses for remote rehabilitation, paving the way for further research.
- Abstract(参考訳): ストロークは世界第3の死因であり、世界的な健康問題として認識されている。
脳卒中生存者にとって大きな課題は、日常活動や生活の全体的な品質に深刻な影響を及ぼす持続的手障害である。
機能回復のためには, 脳卒中生存者に対するリハビリテーション療法が必要である。
しかし、伝統的なリハビリテーションには継続的な医療支援が必要であり、貯蓄された医療システムに依存している。
本稿では,市販スマートグラス,特にRayBan Storiesの遠隔リハビリテーションにおけるエゴセントリック録音の活用について検討する。
本手法は,自動運動認識,運動形態評価,反復計数のためのスマートグラスの可能性を評価するためのオフライン実験を含む。
私たちは、エゴセントリックなハンドエクササイズビデオの最初のデータセットであるREST-HANDSを紹介します。
我々は、最先端の手法を用いて、運動認識(98.55%)、フォーム評価(86.98%)、繰り返しカウント(平均誤差1.33)の精度の高いベンチマークを確立する。
本研究は,スマートグラスの自我中心型ビデオによる遠隔リハビリテーションの実現可能性を示し,さらなる研究の道を開いた。
関連論文リスト
- Assessment and treatment of visuospatial neglect using active learning
with Gaussian processes regression [0.3262230127283452]
視空間無視は、空間と参照フレームの領域に位置する視覚刺激に対する認識障害によって特徴づけられる障害である。
本稿では,患者の空間的無視を三次元的に正確に評価する人工知能ソリューションを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:18:32Z) - Design, Development, and Evaluation of an Interactive Personalized
Social Robot to Monitor and Coach Post-Stroke Rehabilitation Exercises [68.37238218842089]
パーソナライズされたリハビリテーションのための対話型ソーシャルロボット運動指導システムを開発した。
このシステムは、ニューラルネットワークモデルとルールベースのモデルを統合し、患者のリハビリテーション運動を自動的に監視し、評価する。
我々のシステムは,新たな参加者に適応し,専門家の合意レベルに匹敵する,エクササイズを評価するための平均パフォーマンス0.81を達成できる。
論文 参考訳(メタデータ) (2023-05-12T17:37:04Z) - Rehabilitation Exercise Repetition Segmentation and Counting using
Skeletal Body Joints [6.918076156491651]
本稿では,患者が実施するリハビリテーション運動の繰り返しを分割・数えるための新しいアプローチを提案する。
骨格の関節は、深度カメラまたは患者のRGBビデオに適用されたコンピュータビジョン技術によって取得することができる。
様々なシーケンシャルニューラルネットワークは、骨格体関節の配列を分析し、繰り返しセグメンテーションとカウントを行うように設計されている。
論文 参考訳(メタデータ) (2023-04-19T15:22:15Z) - Mimetic Muscle Rehabilitation Analysis Using Clustering of Low
Dimensional 3D Kinect Data [1.53119329713143]
本報告では, 筋損傷による顔面麻痺患者のリハビリテーションに対する非観血的アプローチについて考察する。
本研究は,HB(House-Brackmann)尺度など,現在の主観的アプローチと比較して,リハビリテーションプロセスの客観的化を目的としている。
この研究は、Kinectステレオビジョンカメラを用いて得られた120の計測値を持つ85人の異なる患者のデータセットを含んでいる。
論文 参考訳(メタデータ) (2023-02-15T09:45:27Z) - Easing Automatic Neurorehabilitation via Classification and Smoothness
Analysis [1.44744639843118]
本稿では,浅い深層学習アーキテクチャを用いて患者の動作を認識することから始まる自動評価パイプラインを提案する。
この研究の特筆すべき点は、Fugl-Meyerからインスパイアされた動きを、脳卒中患者によく見られる上肢臨床脳卒中評価尺度として表現するため、使用されるデータセットが臨床的に関連している点である。
本研究は, リハビリテーションセッションにおける患者の経過について, 臨床医の所見に応じた結論を得るとともに, 平滑性の観点から, 健常者と患者の運動のコントラストを検出することが可能であることが示唆された。
論文 参考訳(メタデータ) (2022-12-09T13:59:14Z) - Automated Fidelity Assessment for Strategy Training in Inpatient
Rehabilitation using Natural Language Processing [53.096237570992294]
戦略トレーニング (Strategy Training) とは、脳卒中後の認知障害患者に障害を減らすためのスキルを教える、リハビリテーションのアプローチである。
標準化された忠実度評価は治療原則の遵守度を測定するために用いられる。
本研究では,ルールベースNLPアルゴリズム,長短項メモリ(LSTM)モデル,および変換器(BERT)モデルからの双方向エンコーダ表現を開発した。
論文 参考訳(メタデータ) (2022-09-14T15:33:30Z) - Measuring hand use in the home after cervical spinal cord injury using
egocentric video [2.1064122195521926]
エゴセントリックビデオは、コミュニティで四肢麻痺を患っている人の手機能モニタリングの潜在的な解決策として登場した。
四肢麻痺児の在宅における手指使用量を測定するウェアラブル・ビジョン・ベース・システムの開発と評価を行った。
論文 参考訳(メタデータ) (2022-03-31T12:43:23Z) - Vogtareuth Rehab Depth Datasets: Benchmark for Marker-less Posture
Estimation in Rehabilitation [55.41644538483948]
本研究では,リハビリテーションを行う患者の深度画像と2次元ポーズ情報を含む2つのリハビリテーション特異的ポーズデータセットを提案する。
我々は、非リハブベンチマークデータセットに基づいてトレーニングされた、最先端のマーカーレス姿勢推定モデルを用いている。
私たちのデータセットは、リハビリ特有の複雑な姿勢を検出するために、ポーズモデルを訓練するのに使用できます。
論文 参考訳(メタデータ) (2021-08-23T16:18:26Z) - One-shot action recognition towards novel assistive therapies [63.23654147345168]
この作業は、アクション模倣ゲームを含む医療療法の自動分析によって動機づけられます。
提案手法は、異種運動データ条件を標準化する前処理ステップを組み込んだものである。
自閉症者に対するセラピー支援のための自動ビデオ分析の実際の利用事例について検討した。
論文 参考訳(メタデータ) (2021-02-17T19:41:37Z) - MET: Multimodal Perception of Engagement for Telehealth [52.54282887530756]
ビデオから人間のエンゲージメントレベルを知覚する学習ベースアルゴリズムMETを提案する。
我々はメンタルヘルス患者のエンゲージメント検出のための新しいデータセットMEDICAをリリースした。
論文 参考訳(メタデータ) (2020-11-17T15:18:38Z) - A Review of Computational Approaches for Evaluation of Rehabilitation
Exercises [58.720142291102135]
本稿では,モーションキャプチャシステムを用いたリハビリテーションプログラムにおける患者のパフォーマンスを評価するための計算手法についてレビューする。
エクササイズ評価のための再検討された計算手法は, 離散的な運動スコア, ルールベース, テンプレートベースアプローチの3つのカテゴリに分類される。
論文 参考訳(メタデータ) (2020-02-29T22:18:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。