論文の概要: SAM4Dcap: Training-free Biomechanical Twin System from Monocular Video
- arxiv url: http://arxiv.org/abs/2602.13760v1
- Date: Sat, 14 Feb 2026 13:09:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.374495
- Title: SAM4Dcap: Training-free Biomechanical Twin System from Monocular Video
- Title(参考訳): SAM4Dcap:単眼ビデオによる無トレーニングバイオメカニカルツインシステム
- Authors: Li Wang, HaoYu Wang, Xi Chen, ZeKun Jiang, Kang Li, Jian Li,
- Abstract要約: SAM4Dcapは、単眼ビデオから生体力学的メトリクスを、追加のトレーニングなしで推定するためのオープンソースのフレームワークである。
パイプラインは再構成メッシュを様々な筋骨格モデルと互換性のある軌跡ファイルに変換する。
歩行とドロップジャンプタスクに関する予備的な評価は、SAM4Dcapがマルチビューシステムに匹敵する膝運動予測を達成できる可能性を示唆している。
- 参考スコア(独自算出の注目度): 16.202462062701038
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Quantitative biomechanical analysis is essential for clinical diagnosis and injury prevention but is often restricted to laboratories due to the high cost of optical motion capture systems. While multi-view video approaches have lowered barriers, they remain impractical for home-based scenarios requiring monocular capture. This paper presents SAM4Dcap, an open-source, end-to-end framework for estimating biomechanical metrics from monocular video without additional training. SAM4Dcap integrates the temporally consistent 4D human mesh recovery of SAM-Body4D with the OpenSim biomechanical solver. The pipeline converts reconstructed meshes into trajectory files compatible with diverse musculoskeletal models. We introduce automated prompting strategies and a Linux-native build for processing. Preliminary evaluations on walking and drop-jump tasks indicate that SAM4Dcap has the potential to achieve knee kinematic predictions comparable to multi-view systems, although some discrepancies in hip flexion and residual jitter remain. By bridging advanced computer vision with established biomechanical simulation, SAM4Dcap provides a flexible, accessible foundation for non-laboratory motion analysis.
- Abstract(参考訳): 定量的バイオメカニカル分析は臨床診断や外傷予防に不可欠であるが、光学式モーションキャプチャーシステムのコストが高いため、しばしば研究室に限られる。
マルチビュービデオアプローチは障壁を低くする一方で、モノクロキャプチャを必要とする家庭ベースのシナリオでは実用的ではない。
本稿では,モノクロビデオから生体力学的指標を付加的なトレーニングなしで推定する,オープンソースのエンドツーエンドフレームワークSAM4Dcapを提案する。
SAM4Dcapは、SAM-Body4Dの時間的に一貫した4次元メッシュ回復とOpenSimバイオメカニカルソルバを統合している。
パイプラインは再構成メッシュを様々な筋骨格モデルと互換性のある軌跡ファイルに変換する。
我々は、自動プロンプト戦略と、処理のためのLinuxネイティブビルドを導入する。
歩行とドロップジャンプタスクに関する予備的な評価は、SAM4Dcapが多視点システムに匹敵する膝キネマティックな予測を達成できる可能性を示唆している。
高度なコンピュータビジョンを確立された生体力学シミュレーションでブリッジすることで、SAM4Dcapは非作業動作解析のための柔軟でアクセスしやすい基盤を提供する。
関連論文リスト
- SAM-Body4D: Training-Free 4D Human Body Mesh Recovery from Videos [53.227781131348856]
Human Mesh Recoveryは、2Dの観察から3Dのポーズと形状を再構築することを目的としている。
近年のSAM 3D Bodyのような画像ベースHMR法は,線内画像に対して強靭性を実現している。
ビデオからの時間的一貫した閉塞性HMRのためのトレーニングフリーフレームワークSAM-Body4Dを提案する。
論文 参考訳(メタデータ) (2025-12-09T09:37:31Z) - Is Single-View Mesh Reconstruction Ready for Robotics? [78.14584238127338]
本研究では,ロボット操作のための物理シミュレータを用いたリアルタイム計画と動的予測のためのディジタル双対生成の実現の可能性について,単一ビューメッシュ再構成モデルの評価を行った。
我々の研究は、コンピュータビジョンの進歩とロボティクスの必要性の間に重要なギャップがあることを浮き彫りにし、この交差点における将来の研究を導く。
論文 参考訳(メタデータ) (2025-05-23T14:35:56Z) - Comparison of Kinematics and Kinetics Between OpenCap and a Marker-Based Motion Capture System in Cycling [0.0]
本研究は, サイクリング時の関節運動学および運動学評価におけるマーカーベースおよびマーカーレスモーションキャプチャシステム(OpenCap)の適合性を評価する。
OpenSimを用いて, 関節角度, モーメント, 関節反応負荷などの重要な指標を計算した。
その結果, 股関節(屈曲・伸展), 膝(屈曲・伸展), 足首(背屈・足関節屈曲)の関節角度について非常に強い一致(r GT 0.9)を示した。
論文 参考訳(メタデータ) (2024-08-20T15:57:40Z) - MS-MANO: Enabling Hand Pose Tracking with Biomechanical Constraints [50.61346764110482]
筋骨格系と学習可能なパラメトリックハンドモデルMANOを統合し,MS-MANOを作成する。
このモデルは骨格系を駆動する筋肉と腱の力学をエミュレートし、結果として生じるトルク軌跡に生理学的に現実的な制約を与える。
また,マルチ層パーセプトロンネットワークによる初期推定ポーズを改良する,ループ式ポーズ改善フレームワークBioPRを提案する。
論文 参考訳(メタデータ) (2024-04-16T02:18:18Z) - FLex: Joint Pose and Dynamic Radiance Fields Optimization for Stereo Endoscopic Videos [79.50191812646125]
内視鏡的シーンの再構築は、外科手術後の分析から教育訓練まで、様々な医療応用にとって重要な要素である。
変形組織の非常にダイナミックな環境下での移動内視鏡の挑戦的なセットアップに着目する。
複数重重なり合う4次元ニューラルラジアンスフィールド(NeRF)への暗黙的なシーン分離と、再構成とカメラのスクラッチからのポーズを協調的に最適化するプログレッシブ最適化手法を提案する。
これにより、使いやすさが向上し、5000フレーム以上の手術ビデオの処理に間に合うように復元能力を拡張できる。
論文 参考訳(メタデータ) (2024-03-18T19:13:02Z) - 3D Kinematics Estimation from Video with a Biomechanical Model and
Synthetic Training Data [4.130944152992895]
2つの入力ビューから3Dキネマティクスを直接出力するバイオメカニクス対応ネットワークを提案する。
実験により, 提案手法は, 合成データにのみ訓練されたものであり, 従来の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-02-20T17:33:40Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。