論文の概要: FootFormer: Estimating Stability from Visual Input
- arxiv url: http://arxiv.org/abs/2510.19170v1
- Date: Wed, 22 Oct 2025 02:05:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:14.928333
- Title: FootFormer: Estimating Stability from Visual Input
- Title(参考訳): FootFormer: 視覚入力から安定性を推定する
- Authors: Keaton Kraiger, Jingjing Li, Skanda Bharadwaj, Jesse Scott, Robert T. Collins, Yanxi Liu,
- Abstract要約: FootFormerは、視覚入力から人間の動きのダイナミクスを共同で予測するためのモダリティのアプローチである。
複数のデータセットにおいて、フットホルダーは、足圧分布、足の接触マップ、質量の中心の統計的に有意または等価な推定値を達成する。
- 参考スコア(独自算出の注目度): 7.657883293444446
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose FootFormer, a cross-modality approach for jointly predicting human motion dynamics directly from visual input. On multiple datasets, FootFormer achieves statistically significantly better or equivalent estimates of foot pressure distributions, foot contact maps, and center of mass (CoM), as compared with existing methods that generate one or two of those measures. Furthermore, FootFormer achieves SOTA performance in estimating stability-predictive components (CoP, CoM, BoS) used in classic kinesiology metrics. Code and data are available at https://github.com/keatonkraiger/Vision-to-Stability.git.
- Abstract(参考訳): フットホルダーは視覚入力から直接人間の運動力学を共同で予測するためのモダリティ手法である。
複数のデータセットにおいて、フットホルダーは足圧分布、足の接触マップ、質量の中心(CoM)の統計的に有意または等価な推定値を達成する。
さらに、フットホルダーは、古典的キネシオロジー測定で用いられる安定性予測成分(CoP、CoM、BoS)を推定する上で、SOTA性能を達成する。
コードとデータはhttps://github.com/keatonkraiger/Vision-to-Stability.gitで公開されている。
関連論文リスト
- Reconstructing Humans with a Biomechanically Accurate Skeleton [55.06027148976482]
本研究では,生体力学的に正確な骨格モデルを用いて,単一の画像から3次元人体を再構築する手法を提案する。
3次元メッシュ回復のための最先端の手法と比較して,我々のモデルは標準ベンチマーク上での競合性能を実現している。
論文 参考訳(メタデータ) (2025-03-27T17:56:24Z) - Unified Human Localization and Trajectory Prediction with Monocular Vision [64.19384064365431]
MonoTransmotionはトランスフォーマーベースのフレームワークで、モノクロカメラのみを使用して、ローカライゼーションと予測タスクを共同で解決する。
両タスクを統合フレームワークで共同でトレーニングすることにより,ノイズの多い入力による実環境シナリオにおいて,我々の手法がより堅牢であることを示す。
論文 参考訳(メタデータ) (2025-03-05T14:18:39Z) - What is the Right Notion of Distance between Predict-then-Optimize Tasks? [35.842182348661076]
OTD$3$は、機能やラベルに加えて下流の決定を組み込んだ、新しいデータセット距離である。
提案した距離は,3つの予測列最適化タスク間でのモデル伝達可能性を正確に予測できることを示す。
論文 参考訳(メタデータ) (2024-09-11T04:13:17Z) - Neural Localizer Fields for Continuous 3D Human Pose and Shape Estimation [32.30055363306321]
本研究では、異なる人間のポーズや形状に関連したタスクやデータセットをシームレスに統一するパラダイムを提案する。
我々の定式化は、人間の容積の任意の点を問合せし、推定位置を3Dで取得することに集中している。
論文 参考訳(メタデータ) (2024-07-10T10:44:18Z) - AlignDiff: Aligning Diverse Human Preferences via Behavior-Customisable
Diffusion Model [69.12623428463573]
AlignDiffは、人間の好みを定量化し、抽象性をカバーし、拡散計画をガイドする新しいフレームワークである。
ユーザがカスタマイズした動作と正確に一致し、効率的に切り替えることができます。
選好マッチング,スイッチング,カバーにおいて,他のベースラインに比べて優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-03T13:53:08Z) - Jointformer: Single-Frame Lifting Transformer with Error Prediction and
Refinement for 3D Human Pose Estimation [11.592567773739407]
人間の3次元ポーズ推定技術は、人間の動きデータの可用性を大幅に向上させる可能性がある。
シングルイメージ2D-3Dリフトの最高の性能モデルは、通常、異なる体節間の関係を定義するために手動入力を必要とするグラフ畳み込みネットワーク(GCN)を使用する。
より一般化された自己認識機構を用いてこれらの関係を学習するトランスフォーマーに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-07T12:07:19Z) - HighlightMe: Detecting Highlights from Human-Centric Videos [52.84233165201391]
我々は,人間中心のビデオからハイライト可能な抜粋を検出するために,ドメインとユーザに依存しないアプローチを提案する。
本研究では,時空間グラフ畳み込みを用いたオートエンコーダネットワークを用いて,人間の活動やインタラクションを検出する。
我々は,最先端の手法に比べて,人手によるハイライトのマッチングの平均精度が4~12%向上したことを観察した。
論文 参考訳(メタデータ) (2021-10-05T01:18:15Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。