論文の概要: HRTR: A Single-stage Transformer for Fine-grained Sub-second Action Segmentation in Stroke Rehabilitation
- arxiv url: http://arxiv.org/abs/2506.02472v2
- Date: Wed, 11 Jun 2025 17:45:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 02:07:43.244245
- Title: HRTR: A Single-stage Transformer for Fine-grained Sub-second Action Segmentation in Stroke Rehabilitation
- Title(参考訳): HRTR : ストロークリハビリテーションにおける微細なサブ秒動作セグメンテーション用単段変圧器
- Authors: Halil Ismail Helvaci, Justin Philip Huber, Jihye Bae, Sen-ching Samson Cheung,
- Abstract要約: 単一段変圧器における高分解能(細粒度)サブ秒動作の時間的局所化と分類を行うための高分解能時間変換器(HRTR)を提案する。
HRTRはストローク関連と一般的なデータセットの両方で最先端のシステムより優れている。
- 参考スコア(独自算出の注目度): 1.0871025997593171
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Stroke rehabilitation often demands precise tracking of patient movements to monitor progress, with complexities of rehabilitation exercises presenting two critical challenges: fine-grained and sub-second (under one-second) action detection. In this work, we propose the High Resolution Temporal Transformer (HRTR), to time-localize and classify high-resolution (fine-grained), sub-second actions in a single-stage transformer, eliminating the need for multi-stage methods and post-processing. Without any refinements, HRTR outperforms state-of-the-art systems on both stroke related and general datasets, achieving Edit Score (ES) of 70.1 on StrokeRehab Video, 69.4 on StrokeRehab IMU, and 88.4 on 50Salads.
- Abstract(参考訳): ストロークリハビリテーションはしばしば、進行を監視するために患者の運動の正確な追跡を要求するが、リハビリテーション運動の複雑さは、細粒度と1秒未満のアクション検出という2つの重要な課題を提示する。
本研究では,高分解能時間変換器(HRTR)を提案し,高分解能(微細な)サブ秒動作を単一段変圧器で時間的局所化・分類し,多段法や後処理の必要性を解消する。
HRTRはStrokeRehab Videoで70.1、StrokeRehab IMUで69.4、50Saladsで88.4の編集スコア(ES)を達成した。
関連論文リスト
- Automatic Temporal Segmentation for Post-Stroke Rehabilitation: A Keypoint Detection and Temporal Segmentation Approach for Small Datasets [2.727171735150599]
ストロークは主に高齢者に影響を及ぼし、65歳以上の高齢者では75%が発症する。
現在の評価方法は、主観的、一貫性がなく、時間を要することが多い。
本研究は、一貫性と時間的分析のソリューションを提供することにより、これらの課題に対処することを目的としている。
論文 参考訳(メタデータ) (2025-02-27T05:05:52Z) - ResFlow: Fine-tuning Residual Optical Flow for Event-based High Temporal Resolution Motion Estimation [50.80115710105251]
イベントカメラは、高時間分解能(HTR)モーション推定に重要な可能性を秘めている。
イベントデータを用いてHTR光流を推定するための残差に基づくパラダイムを提案する。
論文 参考訳(メタデータ) (2024-12-12T09:35:47Z) - Meta-Analysis of Transfer Learning for Segmentation of Brain Lesions [0.0]
3次元磁気共鳴(MR)画像からの脳卒中病変の手動分割は、現在の金標準である。
転写学習(TL)と混合データアプローチを用いて訓練した8種類の2次元モデルアーキテクチャを用いて,脳卒中病変の完全自動セグメンテーション手法の実装と試験を行った。
クロスバリデーションの結果,新しい手法は,地中真実と比較して高速かつ高精度に病変を分割できることがわかった。
論文 参考訳(メタデータ) (2023-06-20T17:42:30Z) - LoViT: Long Video Transformer for Surgical Phase Recognition [59.06812739441785]
短時間・長期の時間情報を融合する2段階のLong Video Transformer(LoViT)を提案する。
このアプローチは、Colec80とAutoLaparoデータセットの最先端メソッドを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-15T20:06:14Z) - Reconstructing Missing EHRs Using Time-Aware Within- and Cross-Visit
Information for Septic Shock Early Prediction [15.877114256662601]
TA-DualCV という,時間認識型デュアルクロス・ヴィジット欠落値計算手法を提案する。
TA-DualCVは、異なる特徴の測定で欠落パターンの潜伏構造をキャプチャする。
また、時間継続性を考慮し、時間ステップと不規則な時間間隔の両方に基づいて、潜伏する時間的欠落パターンをキャプチャする。
論文 参考訳(メタデータ) (2022-03-15T20:47:58Z) - Rapid head-pose detection for automated slice prescription of
fetal-brain MRI [2.0526610003396657]
胎児脳MRIでは, 処方と接収の主目的の変化は, 標準的な矢状, 冠状, 軸方向の視線を得る上での課題である。
そこで本研究では,EPI(Full-uterus Scout scan)を用いた頭部位置検出アルゴリズムを提案する。
この方法の成功率は3学期で94%を超え、訓練された技術者を最大20%上回った。
論文 参考訳(メタデータ) (2021-10-08T13:59:05Z) - Trans-SVNet: Accurate Phase Recognition from Surgical Videos via Hybrid
Embedding Aggregation Transformer [57.18185972461453]
本稿では,手術ワークフロー解析トランスフォーマーを初めて導入し,正確な位相認識のための時間的特徴と時間的特徴の無視された補完効果を再考する。
我々のフレームワークは軽量であり、高い推論速度を達成するためにハイブリッド埋め込みを並列に処理します。
論文 参考訳(メタデータ) (2021-03-17T15:12:55Z) - AutoHR: A Strong End-to-end Baseline for Remote Heart Rate Measurement
with Neural Searching [76.4844593082362]
既存のエンド・ツー・エンドのネットワークが難易度が低い理由を考察し,アーキテクチャ・サーチ(NAS)を用いたリモートHR計測のための強力なベースラインを確立する。
総合的な実験は、時間内テストとクロスデータセットテストの両方で3つのベンチマークデータセットで実施される。
論文 参考訳(メタデータ) (2020-04-26T05:43:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。