論文の概要: Scalable Injury-Risk Screening in Baseball Pitching From Broadcast Video
- arxiv url: http://arxiv.org/abs/2603.04864v1
- Date: Thu, 05 Mar 2026 06:38:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.102735
- Title: Scalable Injury-Risk Screening in Baseball Pitching From Broadcast Video
- Title(参考訳): ブロードキャスト映像からの野球ピッチにおけるスケーラブルな損傷リスクスクリーニング
- Authors: Jerrin Bright, Justin Mende, John Zelek,
- Abstract要約: 放送映像から臨床的に関連のある18のバイオメカニクス指標を回収する単眼ビデオパイプラインを提案する。
提案手法はDreamPose3Dをベースとして,骨盤軌道を回復するドリフト制御のグローバルリフトモジュールを導入する。
これらの指標をケガ予測に用いた自動スクリーニングモデルは、トミー・ジョン手術のAUC 0.811と、7,348ピッチャーの腕の重傷の0.825を達成している。
- 参考スコア(独自算出の注目度): 2.994962964425238
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Injury prediction in pitching depends on precise biomechanical signals, yet gold-standard measurements come from expensive, stadium-installed multi-camera systems that are unavailable outside professional venues. We present a monocular video pipeline that recovers 18 clinically relevant biomechanics metrics from broadcast footage, positioning pose-derived kinematics as a scalable source for injury-risk modeling. Built on DreamPose3D, our approach introduces a drift-controlled global lifting module that recovers pelvis trajectory via velocity-based parameterization and sliding-window inference, lifting pelvis-rooted poses into global space. To address motion blur, compression artifacts, and extreme pitching poses, we incorporate a kinematics refinement pipeline with bone-length constraints, joint-limited inverse kinematics, smoothing, and symmetry constraints to ensure temporally stable and physically plausible kinematics. On 13 professional pitchers (156 paired pitches), 16/18 metrics achieve sub-degree agreement (MAE $< 1^{\circ}$). Using these metrics for injury prediction, an automated screening model achieves AUC 0.811 for Tommy John surgery and 0.825 for significant arm injuries on 7,348 pitchers. The resulting pose-derived metrics support scalable injury-risk screening, establishing monocular broadcast video as a viable alternative to stadium-scale motion capture for biomechanics.
- Abstract(参考訳): ピッチングにおける損傷予測は正確なバイオメカニカル信号に依存するが、金標準測定は、プロの会場以外では利用できない高価なスタジアム設置型マルチカメラシステムから得られる。
本稿では,スポーツ映像から18種類の臨床関連バイオメカニクス指標を回収し,外傷リスクモデリングのためのスケーラブルな音源としてポーズ由来のキネマティクスを配置する単眼ビデオパイプラインを提案する。
提案手法は,DreamPose3Dをベースとして,速度に基づくパラメータ化とスライディングウインドウ推論により骨盤軌道を回収し,骨盤ルートのポーズをグローバル空間に引き上げるドリフト制御型グローバルリフトモジュールを提案する。
動作のぼやけや圧縮品,極端なピッチングポーズに対処するために,骨長の制約,関節制限の逆運動学,平滑化,対称性の制約を加えたキネマティックス精製パイプラインを組み込んで,時間的に安定かつ物理的に妥当な運動学を確実にする。
13人のプロ投手(156対のピッチ)では、16/18のメトリクスが下位の合意(MAE $<1^{\circ}$)を達成する。
これらの指標をケガ予測に用いた自動スクリーニングモデルは、トミー・ジョン手術のAUC 0.811と、7,348ピッチャーの腕の重傷の0.825を達成している。
結果として生じるポーズに基づくメトリクスは、スケーラブルな損傷リスクスクリーニングをサポートし、スタジアム規模のバイオメカニクスのモーションキャプチャーの代替としてモノクロ放送ビデオを確立する。
関連論文リスト
- Interpretable Pre-Release Baseball Pitch Type Anticipation from Broadcast 3D Kinematics [3.1224081969539714]
球飛行データにアクセスせずに、単眼の3Dポーズシーケンスから8種類のピッチタイプを分類する。
我々のパイプラインは、自動ピッチングイベント検出による拡散ベースの3Dポーズバックボーンをチェーンする。
119,561個のプロピッチでボディキネマティクスのみを用いて80.4%の精度を実現した。
論文 参考訳(メタデータ) (2026-03-05T07:04:35Z) - Physics Informed Human Posture Estimation Based on 3D Landmarks from Monocular RGB-Videos [1.3399128310861848]
BlazePoseのような最先端モデルは、リアルタイムのポーズトラッキングに優れていますが、解剖学的制約の欠如は、物理的な知識を含めることで、改善の可能性を示しています。
本稿では、重み付け最適化を用いたBlazePose 3Dと2D推定の長所を生かしたリアルタイム後処理アルゴリズムを提案する。
Physio2.2Mデータセットによる評価では、3D MPJPEが10.2%減少し、BlazePoseの3D推定に比べて16.6%減少している。
論文 参考訳(メタデータ) (2025-12-07T10:54:09Z) - PhysHMR: Learning Humanoid Control Policies from Vision for Physically Plausible Human Motion Reconstruction [52.44375492811009]
物理学に基づくシミュレーターにおいて,ヒューマノイド制御のための視覚行動ポリシーを学習する統合フレームワークであるPhysHMRを提案する。
我々のアプローチの重要な要素はピクセル・アズ・レイ戦略であり、2次元のキーポイントを3次元空間に上げ、それらを大域空間に変換する。
PhysHMRは多種多様なシナリオにまたがって高忠実で物理的に妥当な動きを生じさせ、視覚的精度と身体的リアリズムの両方において以前のアプローチより優れている。
論文 参考訳(メタデータ) (2025-10-02T21:01:11Z) - Validation of Human Pose Estimation and Human Mesh Recovery for Extracting Clinically Relevant Motion Data from Videos [79.62407455005561]
人間のポーズ推定を用いたマーカーレスモーションキャプチャは、IMUとMoCapのキネマティクスの結果とインラインで結果を生成する。
生成するデータの品質に関してはまだ改善の余地がありますが、この妥協はエラーの部屋にあると考えています。
論文 参考訳(メタデータ) (2025-03-18T22:18:33Z) - Spatial-Temporal Graph Diffusion Policy with Kinematic Modeling for Bimanual Robotic Manipulation [88.83749146867665]
既存のアプローチは、遠く離れた次のベストなエンドエフェクタのポーズを予測するポリシーを学びます。
すると、運動に対する対応する関節回転角を逆運動学を用いて計算する。
本稿では,Kinematics 拡張空間テンポアル gRaph diffuser を提案する。
論文 参考訳(メタデータ) (2025-03-13T17:48:35Z) - Bridging Structural Dynamics and Biomechanics: Human Motion Estimation through Footstep-Induced Floor Vibrations [2.7180946990643466]
既存のアプローチには、カメラ、ウェアラブル、圧力マットなどの監視デバイスが含まれる。
歩行誘発床振動を利用して下肢関節運動を推定する。
本モデルでは,身体と床間の情報共有を可能とし,不確実性を低減するために物理的制約を課す。
論文 参考訳(メタデータ) (2025-02-21T20:10:15Z) - Estimating Body and Hand Motion in an Ego-sensed World [62.61989004520802]
頭部装着装置から人体の動きを推定するシステムであるEgoAlloについて述べる。
エゴセントリックなSLAMポーズとイメージのみを使用して、EgoAlloは条件付き拡散モデルからサンプリングを行い、3Dボディポーズ、高さ、手のパラメータを推定する。
論文 参考訳(メタデータ) (2024-10-04T17:59:57Z) - Real-time, accurate, and open source upper-limb musculoskeletal analysis using a single RGBD camera [0.14999444543328289]
バイオメカニカルバイオフィードバックは、リハビリテーションを強化し、より客観的なタスク評価を提供する。
我々のオープンソースアプローチは、単一の低コストのRGBDカメラを使用して、高忠実な上肢キネマティクスのためのユーザフレンドリーなソリューションを提供します。
論文 参考訳(メタデータ) (2024-06-14T13:20:05Z) - 3D Kinematics Estimation from Video with a Biomechanical Model and
Synthetic Training Data [4.130944152992895]
2つの入力ビューから3Dキネマティクスを直接出力するバイオメカニクス対応ネットワークを提案する。
実験により, 提案手法は, 合成データにのみ訓練されたものであり, 従来の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-02-20T17:33:40Z) - PhysCap: Physically Plausible Monocular 3D Motion Capture in Real Time [89.68248627276955]
シングルカラーカメラからのマーカレス3Dモーションキャプチャは、大きな進歩を遂げた。
しかし、これは非常に困難な問題であり、深刻な問題である。
我々はPhysCapについて紹介する。PhysCapは物理的に可塑性でリアルタイムでマーカーのない人間の3Dモーションキャプチャのための最初のアルゴリズムである。
論文 参考訳(メタデータ) (2020-08-20T10:46:32Z) - Contact and Human Dynamics from Monocular Video [73.47466545178396]
既存のディープモデルは、ほぼ正確に見えるエラーを含むビデオから2Dと3Dキネマティックのポーズを予測する。
本稿では,最初の2次元と3次元のポーズ推定を入力として,映像系列から3次元の人間の動きを推定する物理に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-22T21:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。