論文の概要: Quantitative Gait Analysis from Single RGB Videos Using a Dual-Input Transformer-Based Network
- arxiv url: http://arxiv.org/abs/2501.01689v1
- Date: Fri, 03 Jan 2025 08:10:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-06 15:11:38.985682
- Title: Quantitative Gait Analysis from Single RGB Videos Using a Dual-Input Transformer-Based Network
- Title(参考訳): Dual-Input Transformer-based Network を用いたシングルRGB映像の定量的歩行解析
- Authors: Hiep Dinh, Son Le, My Than, Minh Ho, Nicolas Vuillerme, Hieu Pham,
- Abstract要約: 本稿では,デュアルパターン入力畳み込み変換器ネットワークを用いた臨床歩行解析のための効率的な手法を提案する。
このシステムは歩行偏差指数(GDI)、膝屈曲角度、歩幅、歩行リズムなどの重要な指標を推定する上で高い精度を示す。
- 参考スコア(独自算出の注目度): 8.868801767577846
- License:
- Abstract: Gait and movement analysis have become a well-established clinical tool for diagnosing health conditions, monitoring disease progression for a wide spectrum of diseases, and to implement and assess treatment, surgery and or rehabilitation interventions. However, quantitative motion assessment remains limited to costly motion capture systems and specialized personnel, restricting its accessibility and broader application. Recent advancements in deep neural networks have enabled quantitative movement analysis using single-camera videos, offering an accessible alternative to conventional motion capture systems. In this paper, we present an efficient approach for clinical gait analysis through a dual-pattern input convolutional Transformer network. The proposed system leverages a dual-input Transformer model to estimate essential gait parameters from single RGB videos captured by a single-view camera. The system demonstrates high accuracy in estimating critical metrics such as the gait deviation index (GDI), knee flexion angle, step length, and walking cadence, validated on a dataset of individuals with movement disorders. Notably, our approach surpasses state-of-the-art methods in various scenarios, using fewer resources and proving highly suitable for clinical application, particularly in resource-constrained environments.
- Abstract(参考訳): 歩行と運動分析は、健康状態の診断、幅広い病気の進行の監視、治療、手術、リハビリテーションの介入の実施と評価のための確立した臨床ツールとなっている。
しかし、定量的なモーションアセスメントは、高価なモーションキャプチャシステムと専門スタッフに限られており、アクセシビリティと幅広い応用が制限されている。
近年のディープニューラルネットワークの進歩により、シングルカメラビデオによる定量的な動き解析が可能となり、従来のモーションキャプチャシステムに代わる手段として利用できるようになった。
本稿では,デュアルパターン入力畳み込み変換器ネットワークを用いた臨床歩行解析のための効率的な手法を提案する。
提案システムは,デュアルインプット・トランスフォーマーモデルを用いて,シングルビューカメラで撮影した単一のRGBビデオから重要な歩行パラメータを推定する。
このシステムは、歩行偏差指数(GDI)、膝屈曲角度、歩幅、歩行周期といった重要な指標を、運動障害のある個人のデータセットで評価する上で高い精度を示す。
特に,本手法は様々なシナリオにおいて最先端の手法を超越し,資源を少なくし,特に資源制約環境において臨床応用に非常に適していることを示す。
関連論文リスト
- Developing Normative Gait Cycle Parameters for Clinical Analysis Using Human Pose Estimation [4.975410989590524]
コンピュータビジョンを用いた歩行分析はAIの新たな分野であり、臨床医に複雑な動きを分析するための客観的で多機能なアプローチを提供する。
本稿では,RGBビデオデータと2次元人間のポーズ推定を用いたデータ駆動手法を提案する。
論文 参考訳(メタデータ) (2024-11-20T21:27:13Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Learning to Estimate Critical Gait Parameters from Single-View RGB
Videos with Transformer-Based Attention Network [0.0]
本稿では,一眼レフカメラで撮影したRGBビデオから重要な歩行パラメータを推定するトランスフォーマーネットワークを提案する。
脳性麻痺患者の公的データセットに関する実証的な評価は、このフレームワークが現在の最先端のアプローチを超越していることを示している。
論文 参考訳(メタデータ) (2023-12-01T07:45:27Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z) - Occlusion-robust Visual Markerless Bone Tracking for Computer-Assisted
Orthopaedic Surgery [41.681134859412246]
閉塞に対して頑健なRGB-Dセンサを用いたマーカーレストラッキング手法を提案する。
高品質な商用RGB-Dカメラを用いて,モデル膝の1-2デグレスと2-4mmの精度を実現する。
論文 参考訳(メタデータ) (2021-08-24T09:49:08Z) - One to Many: Adaptive Instrument Segmentation via Meta Learning and
Dynamic Online Adaptation in Robotic Surgical Video [71.43912903508765]
MDALは、ロボット支援手術における機器セグメンテーションのための動的オンライン適応学習スキームです。
ビデオ固有のメタ学習パラダイムを通じて、楽器の一般的な知識と高速適応能力を学ぶ。
2つのデータセットで他の最先端のメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-03-24T05:02:18Z) - One-shot action recognition towards novel assistive therapies [63.23654147345168]
この作業は、アクション模倣ゲームを含む医療療法の自動分析によって動機づけられます。
提案手法は、異種運動データ条件を標準化する前処理ステップを組み込んだものである。
自閉症者に対するセラピー支援のための自動ビデオ分析の実際の利用事例について検討した。
論文 参考訳(メタデータ) (2021-02-17T19:41:37Z) - Multi-view Human Pose and Shape Estimation Using Learnable Volumetric
Aggregation [0.0]
キャリブレーションされた多視点画像から3次元人体ポーズと形状を再構成する学習可能なアグリゲーション手法を提案する。
従来の手法と比較して,我々のフレームワークは,コスト効率を考えると,より精度が高く,リアルタイムな予測が期待できる。
論文 参考訳(メタデータ) (2020-11-26T18:33:35Z) - A Single RGB Camera Based Gait Analysis with a Mobile Tele-Robot for
Healthcare [9.992387025633805]
この研究は、関節矯正や下肢や脊椎の問題評価に広く採用されている歩行の分析に焦点を当てている。
ハードウェア側では,移動ロボットに搭載された低コストのRGBカメラを用いたマーカーレス歩行解析装置を設計する。
論文 参考訳(メタデータ) (2020-02-11T21:42:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。