論文の概要: ProGait: A Multi-Purpose Video Dataset and Benchmark for Transfemoral Prosthesis Users
- arxiv url: http://arxiv.org/abs/2507.10223v1
- Date: Mon, 14 Jul 2025 12:40:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:24.874957
- Title: ProGait: A Multi-Purpose Video Dataset and Benchmark for Transfemoral Prosthesis Users
- Title(参考訳): ProGait: 大腿骨補綴患者の多目的ビデオデータセットとベンチマーク
- Authors: Xiangyu Yin, Boyuan Yang, Weichen Liu, Qiyao Xue, Abrar Alamri, Goeran Fiedler, Wei Gao,
- Abstract要約: 義肢は、臨床リハビリテーションにおいて重要な役割を担い、下肢切断の患者は、移動性を取り戻し、生活の質を向上させることができる。歩行分析は、義肢の設計とアライメントを最適化するための基本であり、下肢切断の患者の移動性と生活の質に直接影響を及ぼす。
視覚ベースの機械学習(ML)手法は、歩行分析にスケーラブルで非侵襲的なソリューションを提供するが、独特の外観と新しい動きパターンのために、義肢を正しく検出し分析する際の課題に直面している。
本稿では,ProGaitという多目的データセットを導入して,このギャップを埋めることを目的とする。
- 参考スコア(独自算出の注目度): 6.1966312667696615
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Prosthetic legs play a pivotal role in clinical rehabilitation, allowing individuals with lower-limb amputations the ability to regain mobility and improve their quality of life. Gait analysis is fundamental for optimizing prosthesis design and alignment, directly impacting the mobility and life quality of individuals with lower-limb amputations. Vision-based machine learning (ML) methods offer a scalable and non-invasive solution to gait analysis, but face challenges in correctly detecting and analyzing prosthesis, due to their unique appearances and new movement patterns. In this paper, we aim to bridge this gap by introducing a multi-purpose dataset, namely ProGait, to support multiple vision tasks including Video Object Segmentation, 2D Human Pose Estimation, and Gait Analysis (GA). ProGait provides 412 video clips from four above-knee amputees when testing multiple newly-fitted prosthetic legs through walking trials, and depicts the presence, contours, poses, and gait patterns of human subjects with transfemoral prosthetic legs. Alongside the dataset itself, we also present benchmark tasks and fine-tuned baseline models to illustrate the practical application and performance of the ProGait dataset. We compared our baseline models against pre-trained vision models, demonstrating improved generalizability when applying the ProGait dataset for prosthesis-specific tasks. Our code is available at https://github.com/pittisl/ProGait and dataset at https://huggingface.co/datasets/ericyxy98/ProGait.
- Abstract(参考訳): 義肢は臨床リハビリテーションにおいて重要な役割を担い、下肢切断の患者は移動性を取り戻し、生活の質を向上させることができる。
歩行分析は人工装具の設計とアライメントを最適化するための基礎であり、下肢切断を受けた個人の移動性と生活の質に直接影響を及ぼす。
視覚ベースの機械学習(ML)手法は、歩行分析にスケーラブルで非侵襲的なソリューションを提供するが、独特の外観と新しい動きパターンのために、義肢を正しく検出し分析する際の課題に直面している。
本稿では,映像オブジェクトセグメンテーション,2Dヒューマンポーズ推定,歩行分析(GA)など複数の視覚タスクをサポートするために,ProGaitという多目的データセットを導入することで,このギャップを埋めることを目的とする。
ProGaitは、歩行テストを通じて、複数の新しくフィットした義肢をテストする際に、上肢の4つのアンプから412本のビデオクリップを提供し、大腿骨外義肢を持つ人の存在、輪郭、ポーズ、歩行パターンを描いている。
データセット自体に加えて、ベンチマークタスクや微調整されたベースラインモデルも提示し、ProGaitデータセットの実践的応用とパフォーマンスを示す。
義手固有のタスクに ProGait データセットを適用する際に, ベースラインモデルと事前学習した視覚モデルを比較し, 一般化性の向上を実証した。
私たちのコードはhttps://github.com/pittisl/ProGaitで、データセットはhttps://huggingface.co/datasets/ericyxy98/ProGaitで利用可能です。
関連論文リスト
- SMPLest-X: Ultimate Scaling for Expressive Human Pose and Shape Estimation [81.36747103102459]
表現的人間のポーズと形状推定(EHPS)は、身体、手、顔の動きを多数の応用で統合する。
現在の最先端の手法は、限定されたデータセット上で革新的なアーキテクチャ設計を訓練することに焦点を当てている。
本稿では,EHPSのスケールアップが一般基盤モデルのファミリに与える影響について検討する。
論文 参考訳(メタデータ) (2025-01-16T18:59:46Z) - Classifying Simulated Gait Impairments using Privacy-preserving Explainable Artificial Intelligence and Mobile Phone Videos [0.1806830971023738]
歩行障害を分類するための携帯電話ベースのプライバシ保護人工知能(AI)システムを提案する。
本データセットは, 正常歩行と6種類の病理歩行を模擬した訓練対象者の前頭・矢状視で構成する。
本システムでは,正面視と矢状視を併用して86.5%の精度を達成した。
論文 参考訳(メタデータ) (2024-12-02T02:35:40Z) - Personalization of Wearable Sensor-Based Joint Kinematic Estimation Using Computer Vision for Hip Exoskeleton Applications [0.0]
実時間関節キネマティック推定のためのコンピュータビジョンに基づくDL適応フレームワークを提案する。
このフレームワークは小さなデータセット(すなわち1-2歩行サイクル)しか必要とせず、プロのモーションキャプチャー設定に依存しない。
本フレームワークは, スマートフォンカメラ学習型DLモデルを用いて, 臨床における新規ユーザ間でのリアルタイム関節キネマティクスを推定し, ウェアラブルロボットへの応用の可能性を示すものである。
論文 参考訳(メタデータ) (2024-11-22T22:17:42Z) - VLFeedback: A Large-Scale AI Feedback Dataset for Large Vision-Language Models Alignment [55.7956150385255]
本稿では,視覚言語モデルの整合性向上のためのAIフィードバックの有効性について検討する。
最初の大規模視覚言語フィードバックデータセットであるVLFeedbackを紹介する。
我々は、VLFeedback上で直接選好最適化によって微調整されたLVLMであるSilkieを訓練する。
論文 参考訳(メタデータ) (2024-10-12T07:56:47Z) - Continual Learning from Simulated Interactions via Multitask Prospective Rehearsal for Bionic Limb Behavior Modeling [0.7922558880545526]
生体補綴制御の文脈における人間の行動モデルを提案する。
本稿では、時間とともに動きを予測・洗練するマルチタスク・継続的適応モデルを提案する。
我々は,トランスティバイアル・アンプを含む実世界の人間の歩行データセットの実験を通じて,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-05-02T09:22:54Z) - XAI-based gait analysis of patients walking with Knee-Ankle-Foot
orthosis using video cameras [1.8749305679160366]
本稿では,カメラの動きに頑健な歩行解析システムを提案する。
提案システムは,前処理時に超解像とポーズ推定を用いる。
次に、ストライド長、ステップ長、フォーメーションの7つの特徴、正統および非正統の脚、ケイデンス、スピードの単独サポートを識別する。
論文 参考訳(メタデータ) (2024-02-25T19:05:10Z) - Unified Visual Relationship Detection with Vision and Language Models [89.77838890788638]
この研究は、複数のデータセットからラベル空間の結合を予測する単一の視覚的関係検出器のトレーニングに焦点を当てている。
視覚と言語モデルを活用した統合視覚関係検出のための新しいボトムアップ手法UniVRDを提案する。
人物体間相互作用検出とシーングラフ生成の双方による実験結果から,本モデルの競合性能が示された。
論文 参考訳(メタデータ) (2023-03-16T00:06:28Z) - CaRTS: Causality-driven Robot Tool Segmentation from Vision and
Kinematics Data [11.92904350972493]
ロボット支援手術中の視覚に基づくロボットツールのセグメンテーションは、拡張現実フィードバックなどの下流アプリケーションを可能にする。
ディープラーニングの導入により、楽器のセグメンテーションを画像から直接、あるいは画像から直接解決する多くの方法が提示された。
本稿では,ロボットツールセグメンテーションタスクの相補的因果モデルに基づいて設計した因果性駆動型ロボットツールセグメンテーションアルゴリズムCaRTSを提案する。
論文 参考訳(メタデータ) (2022-03-15T22:26:19Z) - Recovering 3D Human Mesh from Monocular Images: A Survey [49.00136388529404]
単眼画像から人間のポーズと形状を推定することは、コンピュータビジョンにおける長年の問題である。
本調査は, 単分子型3次元メッシュ回収の課題に焦点を当てた。
論文 参考訳(メタデータ) (2022-03-03T18:56:08Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - Occlusion-Invariant Rotation-Equivariant Semi-Supervised Depth Based
Cross-View Gait Pose Estimation [40.50555832966361]
閉塞不変な半教師あり学習フレームワークを用いたクロスビュー一般化のための新しい手法を提案する。
本モデルは,1つの視点からの実世界データと,複数の視点からの非競合合成データを用いて訓練した。
他の目に見えないすべてのビューから、現実世界のデータをうまく一般化することができる。
論文 参考訳(メタデータ) (2021-09-03T09:39:05Z) - One to Many: Adaptive Instrument Segmentation via Meta Learning and
Dynamic Online Adaptation in Robotic Surgical Video [71.43912903508765]
MDALは、ロボット支援手術における機器セグメンテーションのための動的オンライン適応学習スキームです。
ビデオ固有のメタ学習パラダイムを通じて、楽器の一般的な知識と高速適応能力を学ぶ。
2つのデータセットで他の最先端のメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-03-24T05:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。