論文の概要: STROKEVISION-BENCH: A Multimodal Video And 2D Pose Benchmark For Tracking Stroke Recovery
- arxiv url: http://arxiv.org/abs/2509.07994v1
- Date: Tue, 02 Sep 2025 18:48:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.183014
- Title: STROKEVISION-BENCH: A Multimodal Video And 2D Pose Benchmark For Tracking Stroke Recovery
- Title(参考訳): STROKEVISION-BENCH:ストロークリカバリ追跡のためのマルチモーダルビデオと2D画像ベンチマーク
- Authors: David Robinson, Animesh Gupta, Rizwan Quershi, Qiushi Fu, Mubarak Shah,
- Abstract要約: StrokeVision-Benchは、脳卒中患者が臨床的に構造化されたブロック転送タスクを行う最初の専用データセットである。
StrokeVision-Benchは、1000本の注釈付きビデオを4つの臨床的に意味のあるアクションクラスに分類する。
我々は,現在最先端のビデオアクション認識と骨格に基づく動作分類手法のベンチマークを行い,性能ベースラインを確立する。
- 参考スコア(独自算出の注目度): 41.140934816875806
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Despite advancements in rehabilitation protocols, clinical assessment of upper extremity (UE) function after stroke largely remains subjective, relying heavily on therapist observation and coarse scoring systems. This subjectivity limits the sensitivity of assessments to detect subtle motor improvements, which are critical for personalized rehabilitation planning. Recent progress in computer vision offers promising avenues for enabling objective, quantitative, and scalable assessment of UE motor function. Among standardized tests, the Box and Block Test (BBT) is widely utilized for measuring gross manual dexterity and tracking stroke recovery, providing a structured setting that lends itself well to computational analysis. However, existing datasets targeting stroke rehabilitation primarily focus on daily living activities and often fail to capture clinically structured assessments such as block transfer tasks. Furthermore, many available datasets include a mixture of healthy and stroke-affected individuals, limiting their specificity and clinical utility. To address these critical gaps, we introduce StrokeVision-Bench, the first-ever dedicated dataset of stroke patients performing clinically structured block transfer tasks. StrokeVision-Bench comprises 1,000 annotated videos categorized into four clinically meaningful action classes, with each sample represented in two modalities: raw video frames and 2D skeletal keypoints. We benchmark several state-of-the-art video action recognition and skeleton-based action classification methods to establish performance baselines for this domain and facilitate future research in automated stroke rehabilitation assessment.
- Abstract(参考訳): リハビリテーションプロトコルの進歩にもかかわらず、脳卒中後の上肢機能(UE)の臨床的評価は大半が主観的であり、セラピストの観察と粗いスコアシステムに大きく依存している。
この主観性は、パーソナライズされたリハビリテーション計画において重要な、微妙な運動改善を検出するための評価の感度を制限する。
コンピュータビジョンの最近の進歩は、UEモータ機能の客観的、定量的、スケーラブルな評価を可能にするための有望な道を提供する。
標準化されたテストの中で、Box and Block Test (BBT) は総合的な手動のデキスタリティの測定と脳卒中回復の追跡に広く利用されている。
しかし、脳卒中リハビリテーションを対象とする既存のデータセットは、主に日常生活活動に焦点を当てており、ブロック転送タスクのような臨床的に構造化されたアセスメントの取得に失敗することが多い。
さらに、多くの利用可能なデータセットには、健康な人や脳卒中に感染した人の混在が含まれており、その特異性や臨床的有用性は制限されている。
StrokeVision-Benchは、脳卒中患者が臨床的に構造化されたブロック転送タスクを行う最初の専用データセットである。
StrokeVision-Benchは、1000本の注釈付きビデオを4つの臨床的に意味のあるアクションクラスに分類し、各サンプルは生のビデオフレームと2D骨格キーポイントの2つのモードで表現される。
我々は、この領域のパフォーマンス基準を確立し、脳卒中リハビリテーションの自動評価における今後の研究を促進するために、最先端のビデオアクション認識と骨格に基づくアクション分類法をベンチマークする。
関連論文リスト
- Two-Stage Representation Learning for Analyzing Movement Behavior Dynamics in People Living with Dementia [44.39545678576284]
本研究では,認知症高齢者の在宅活動データを,2段階の自己指導型学習アプローチによって分析する。
第1段階は、時系列アクティビティを事前訓練された言語モデルによって符号化されたテキストシーケンスに変換する。
このPageRankベクトルは遅延状態遷移をキャプチャし、複雑な振る舞いデータを簡潔な形式に効果的に圧縮する。
論文 参考訳(メタデータ) (2025-02-13T10:57:25Z) - A Medical Low-Back Pain Physical Rehabilitation Dataset for Human Body Movement Analysis [0.6990493129893111]
本稿では,低背痛リハビリテーションを施行した臨床患者の医療データセットについて,4つの課題に対処し,提案する。
データセットには、3D Kinectスケルトンの位置と向き、RGBビデオ、2Dスケルトンデータ、正確性を評価するための医用アノテーション、身体部分とタイムパンのエラー分類とローカライゼーションが含まれている。
論文 参考訳(メタデータ) (2024-06-29T19:50:06Z) - MedFMC: A Real-world Dataset and Benchmark For Foundation Model
Adaptation in Medical Image Classification [41.16626194300303]
ファンデーションモデルは、多くの場合、大規模なデータで事前訓練されているが、様々なビジョンや言語アプリケーションのジャンプ開始において、最も成功している。
最近の進歩により、下流タスクにおける基礎モデルの適応は、少数のトレーニングサンプルだけで効率的に行えるようになった。
しかし, 医用画像解析におけるそのような学習パラダイムの適用は, 一般に公開されているデータやベンチマークが不足しているため, 依然として少ない。
論文 参考訳(メタデータ) (2023-06-16T01:46:07Z) - KIDS: kinematics-based (in)activity detection and segmentation in a
sleep case study [5.707737640557724]
睡眠行動とベッド内の運動は、人々の神経生理学的健康に関する豊富な情報を含んでいる。
本稿では,臨床的に有意な関節キネマティクスに基づく客観的(in)アクティビティ検出とセグメンテーションのためのオンラインベイズ確率的枠組みを提案する。
論文 参考訳(メタデータ) (2023-01-04T16:24:01Z) - Towards Stroke Patients' Upper-limb Automatic Motor Assessment Using
Smartwatches [5.132618393976799]
スマートウォッチを用いて脳卒中患者に対する上肢評価パイプラインを設計することを目的としている。
本研究の目的は,Fugl-Meyerアセスメント尺度に触発された4つの重要な動きを自動的に検出し,認識することである。
論文 参考訳(メタデータ) (2022-12-09T14:00:49Z) - Easing Automatic Neurorehabilitation via Classification and Smoothness
Analysis [1.44744639843118]
本稿では,浅い深層学習アーキテクチャを用いて患者の動作を認識することから始まる自動評価パイプラインを提案する。
この研究の特筆すべき点は、Fugl-Meyerからインスパイアされた動きを、脳卒中患者によく見られる上肢臨床脳卒中評価尺度として表現するため、使用されるデータセットが臨床的に関連している点である。
本研究は, リハビリテーションセッションにおける患者の経過について, 臨床医の所見に応じた結論を得るとともに, 平滑性の観点から, 健常者と患者の運動のコントラストを検出することが可能であることが示唆された。
論文 参考訳(メタデータ) (2022-12-09T13:59:14Z) - One-shot action recognition towards novel assistive therapies [63.23654147345168]
この作業は、アクション模倣ゲームを含む医療療法の自動分析によって動機づけられます。
提案手法は、異種運動データ条件を標準化する前処理ステップを組み込んだものである。
自閉症者に対するセラピー支援のための自動ビデオ分析の実際の利用事例について検討した。
論文 参考訳(メタデータ) (2021-02-17T19:41:37Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z) - A Review of Computational Approaches for Evaluation of Rehabilitation
Exercises [58.720142291102135]
本稿では,モーションキャプチャシステムを用いたリハビリテーションプログラムにおける患者のパフォーマンスを評価するための計算手法についてレビューする。
エクササイズ評価のための再検討された計算手法は, 離散的な運動スコア, ルールベース, テンプレートベースアプローチの3つのカテゴリに分類される。
論文 参考訳(メタデータ) (2020-02-29T22:18:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。