論文の概要: MMTA: Multi Membership Temporal Attention for Fine-Grained Stroke Rehabilitation Assessment
- arxiv url: http://arxiv.org/abs/2603.00878v1
- Date: Sun, 01 Mar 2026 02:57:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.394575
- Title: MMTA: Multi Membership Temporal Attention for Fine-Grained Stroke Rehabilitation Assessment
- Title(参考訳): MMTA : 微粒化ストロークリハビリテーション評価のためのマルチメンバータイムアテンション
- Authors: Halil Ismail Helvaci, Justin Huber, Jihye Bae, Sen-ching Samson Cheung,
- Abstract要約: 微粒化再生評価のための高分解能時間変換器MMTA(Multi-Membership Temporal Attention)を提案する。
MMTAはビデオとウェアラブルの両方のIMU入力を統合された単一ステージアーキテクチャでサポートする。
一貫してGlobal Attention Transformerを改良し、StrokeRehabのEdit Scoreを+1.3(ビデオ)+1.6(IMU)で強化し、50Saladsを+3.3で改善した。
- 参考スコア(独自算出の注目度): 0.28332284137397873
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To empower the iterative assessments involved during a person's rehabilitation, automated assessment of a person's abilities during daily activities requires temporally precise segmentation of fine-grained actions in therapy videos. Existing temporal action segmentation (TAS) models struggle to capture sub-second micro-movements while retaining exercise context, blurring rapid phase transitions and limiting reliable downstream assessment of motor recovery. We introduce Multi-Membership Temporal Attention (MMTA), a high-resolution temporal transformer for fine-grained rehabilitation assessment. Unlike standard temporal attention, which assigns each frame a single attention context per layer, MMTA lets each frame attend to multiple locally normalized temporal attention windows within the same layer. We fuse these concurrent temporal views via feature-space overlap resolution, preserving competing local contexts near transitions while enabling longer-range reasoning through layer-wise propagation. This increases boundary sensitivity without additional depth or multi-stage refinement. MMTA supports both video and wearable IMU inputs within a unified single-stage architecture, making it applicable to both clinical and home settings. MMTA consistently improves over the Global Attention transformer, boosting Edit Score by +1.3 (Video) and +1.6 (IMU) on StrokeRehab while further improving 50Salads by +3.3. Ablations confirm that performance gains stem from multi-membership temporal views rather than architectural complexity, offering a practical solution for resource-constrained rehabilitation assessment.
- Abstract(参考訳): リハビリテーションにかかわる反復的評価を強化するために、日常活動中の人の能力の自動評価には、治療ビデオにおけるきめ細かい行動の時間的的精密なセグメンテーションが必要である。
既存の時間的アクションセグメンテーション(TAS)モデルでは、運動コンテキストを維持し、急激な位相遷移を曖昧にし、モータリカバリの信頼性の高い下流評価を制限しながら、サブ秒のマイクロモーメントを捉えるのに苦労している。
微粒化再生評価のための高分解能時間変換器MMTA(Multi-Membership Temporal Attention)を提案する。
各フレームに1層ごとに1つの注意コンテキストを割り当てる標準的な時間アテンションとは異なり、MMTAは各フレームを同一層内の複数の局所正規化された時間アテンションウィンドウに出席させる。
特徴空間オーバーラップの解決により、これらの同時時間ビューを融合し、遷移の近くで競合するローカルコンテキストを保存し、レイヤワイドな伝搬による長距離推論を可能にします。
これにより、追加の深度や多段階の精細化を伴わない境界感度が向上する。
MMTAは、ビデオとウェアラブルの両方のIMU入力を統合された単一ステージアーキテクチャでサポートし、臨床およびホーム設定の両方に適用できる。
MMTAはGlobal Attention Transformerを一貫して改善し、StrokeRehabのEdit Scoreを+1.3(Video)、+1.6(IMU)で強化し、50Saladsを+3.3で改善した。
アブレーションは、パフォーマンス向上は、建築上の複雑さよりも、多人数の時間的視点によるものであり、資源制約によるリハビリテーションアセスメントの実践的な解決策であることを確認した。
関連論文リスト
- A Backpropagation-Free Feedback-Hebbian Network for Continual Learning Dynamics [0.0]
局所的な可塑性で訓練されたコンパクトなフィードバック経路は、再生と連続学習-関連するダイナミクスをサポートすることができることを示す。
その結果,局所的可塑性で訓練されたコンパクトなフィードバック経路は,再生と連続学習-関連するダイナミクスをサポートすることが示唆された。
論文 参考訳(メタデータ) (2026-01-11T03:25:38Z) - Error-Propagation-Free Learned Video Compression With Dual-Domain Progressive Temporal Alignment [92.57576987521107]
両ドメインのプログレッシブな時間的アライメントと品質条件の混合(QCMoE)を備えた新しい統合変換フレームワークを提案する。
QCMoEは、魅力的なR-Dパフォーマンスで連続的かつ一貫したレート制御を可能にする。
実験結果から,提案手法は最先端技術と比較して,競争力のあるR-D性能を実現することが示された。
論文 参考訳(メタデータ) (2025-12-11T09:14:51Z) - Unleashing Temporal Capacity of Spiking Neural Networks through Spatiotemporal Separation [67.69345363409835]
スパイキングニューラルネットワーク(SNN)は、時間的処理に自然に適していると考えられており、膜電位の伝播は、コア時間的モデリングメカニズムとして広く見なされている。
我々は, 膜伝播を段階的に段階的に除去する非ステートフル(NS)モデルの設計を行った。
論文 参考訳(メタデータ) (2025-12-05T07:05:53Z) - MTTR-A: Measuring Cognitive Recovery Latency in Multi-Agent Systems [1.9544213396776273]
我々は、信頼性指標平均時間-回復(MTTR)、平均時間-失敗(MTBF)、および認知領域に関連する比率を適応する。
この研究はエージェント認知における実行可能性の基礎を確立し、認知的回復をアドホックなプロセスから標準化された解釈可能なパフォーマンスに変換する。
論文 参考訳(メタデータ) (2025-11-08T21:29:18Z) - DAMS:Dual-Branch Adaptive Multiscale Spatiotemporal Framework for Video Anomaly Detection [7.117824587276951]
この研究は、マルチレベル特徴とデカップリング融合に基づくDual-Branch Adaptive Multiscale Stemporal Framework (DAMS)と呼ばれるデュアルパスアーキテクチャを提供する。
主処理経路は、適応型マルチスケール時間ピラミッドネットワーク(AMTPN)と畳み込みブロック注意機構(CBAM)を統合している。
論文 参考訳(メタデータ) (2025-07-28T08:42:00Z) - Temporal-Consistent Video Restoration with Pre-trained Diffusion Models [51.47188802535954]
ビデオ復元(VR)は、劣化したビデオから高品質なビデオを復元することを目的としている。
事前訓練拡散モデル(DM)を用いた最近のゼロショットVR法は,逆拡散時の近似誤差と時間的整合性の欠如に悩まされている。
本稿では,DMのシード空間におけるビデオフレームを直接パラメータ化し,近似誤差を排除した新しいMAP(Posterior Maximum)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-19T03:41:56Z) - Progressive Divide-and-Conquer via Subsampling Decomposition for Accelerated MRI [34.004099276013946]
本稿では, サブサンプリングプロセスの分解を目的としたPDAC(Progressive Divide-And-Conquer)戦略を提案する。
提案手法は,一般に公開されている高速MRIとStanford2D FSEデータセットにおいて,優れた性能を実現する。
論文 参考訳(メタデータ) (2024-03-15T07:14:01Z) - LoViT: Long Video Transformer for Surgical Phase Recognition [59.06812739441785]
短時間・長期の時間情報を融合する2段階のLong Video Transformer(LoViT)を提案する。
このアプローチは、Colec80とAutoLaparoデータセットの最先端メソッドを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-15T20:06:14Z) - Recurrence-in-Recurrence Networks for Video Deblurring [58.49075799159015]
最先端のビデオデブロアリング法は、しばしばフレーム間の時間的依存性をモデル化するために、リカレントニューラルネットワークを採用する。
本稿では,短距離メモリの限界に対処する再帰型ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-03-12T11:58:13Z) - Temporal Context Aggregation Network for Temporal Action Proposal
Refinement [93.03730692520999]
時間的行動提案生成はビデオ理解分野において難しいが重要な課題である。
現在の方法はまだ不正確な時間境界と検索に使用される劣った自信に苦しんでいます。
TCANet は、「ローカルおよびグローバル」な時間的コンテキストアグリゲーションを通じて、高品質のアクション提案を生成するために提案します。
論文 参考訳(メタデータ) (2021-03-24T12:34:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。