論文の概要: Learning to Estimate External Forces of Human Motion in Video
- arxiv url: http://arxiv.org/abs/2207.05845v1
- Date: Tue, 12 Jul 2022 21:20:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 15:09:55.978047
- Title: Learning to Estimate External Forces of Human Motion in Video
- Title(参考訳): 映像における人間の動きの外部力推定の学習
- Authors: Nathan Louis, Tylan N. Templin, Travis D. Eliason, Daniel P.
Nicolella, and Jason J. Corso
- Abstract要約: 地上反応力(GRF)は、特定の動きの間、人体によって行使される。
標準的なプラクティスでは、コントロールされた環境で物理的なマーカーと力板をペアリングします。
ビデオからのGRF推論を提案する。
- 参考スコア(独自算出の注目度): 22.481658922173906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analyzing sports performance or preventing injuries requires capturing ground
reaction forces (GRFs) exerted by the human body during certain movements.
Standard practice uses physical markers paired with force plates in a
controlled environment, but this is marred by high costs, lengthy
implementation time, and variance in repeat experiments; hence, we propose GRF
inference from video. While recent work has used LSTMs to estimate GRFs from 2D
viewpoints, these can be limited in their modeling and representation capacity.
First, we propose using a transformer architecture to tackle the GRF from video
task, being the first to do so. Then we introduce a new loss to minimize high
impact peaks in regressed curves. We also show that pre-training and multi-task
learning on 2D-to-3D human pose estimation improves generalization to unseen
motions. And pre-training on this different task provides good initial weights
when finetuning on smaller (rarer) GRF datasets. We evaluate on LAAS Parkour
and a newly collected ForcePose dataset; we show up to 19% decrease in error
compared to prior approaches.
- Abstract(参考訳): スポーツのパフォーマンスの分析や怪我の予防には、特定の運動中に人体が行使する地上反応力(grf)を捉える必要がある。
標準手法では, 制御された環境において, 力板と組み合わせた物理マーカーを用いるが, 繰り返し実験における高コスト, 長い実装時間, ばらつきに悩まされるため, ビデオからのGRF推論を提案する。
最近の研究では、LSTMを用いて2次元視点からGRFを推定しているが、モデリングや表現能力に制限がある。
まず、まず、ビデオタスクからgrfに取り組むためにトランスフォーマーアーキテクチャを使うことを提案する。
次に,回帰曲線における衝撃ピークを最小化するために,新たな損失を導入する。
また,2次元から3次元のポーズ推定における事前学習とマルチタスク学習が,目に見えない動作への一般化を促進することを示す。
そして、この異なるタスクの事前トレーニングは、より小さな(より粗い)GRFデータセットを微調整する際に、優れた初期重みを与える。
LAAS Parkourと新たに収集したForcePoseデータセットについて検討した。
関連論文リスト
- ExPLoRA: Parameter-Efficient Extended Pre-Training to Adapt Vision Transformers under Domain Shifts [52.1635661239108]
本稿では,事前学習された視覚変換器(ViT)のドメインシフト下での伝達学習を改善するために,ExPLoRAを提案する。
我々の実験は、衛星画像の最先端の成果を実証し、完全な事前学習や微調整のViTよりも優れています。
論文 参考訳(メタデータ) (2024-06-16T15:14:56Z) - A Reinforcement Learning Based Controller to Minimize Forces on the
Crutches of a Lower-Limb Exoskeleton [1.4680035572775536]
我々は深層強化学習を用いて、松葉杖のグラウンド反応力(GRF)を最小化する制御器を開発する。
我々は,ヒト外骨格系の前方変位を促進するために報酬関数を定式化する。
我々の学習モデルでは,足の関節角度,速度,GRFに基づいて関節トルクを生成できることを実証的に示す。
論文 参考訳(メタデータ) (2024-01-31T19:20:56Z) - Gait Cycle-Inspired Learning Strategy for Continuous Prediction of Knee
Joint Trajectory from sEMG [24.608475386117426]
本稿では,2つの歩行サイクルにインスパイアされた学習戦略を統合し,膝関節の軌道予測の課題を軽減するモデルを提案する。
異なるネットワークエンティティを通して学習することにより、モデルは共通の歩行特徴とパーソナライズされた歩行特徴の両方をキャプチャする。
実験結果から, 平均根平均二乗誤差(RMSE)を3.03度(0.49度), 50ms前後で予測できることが示唆された。
論文 参考訳(メタデータ) (2023-07-25T02:23:58Z) - GLA-GCN: Global-local Adaptive Graph Convolutional Network for 3D Human
Pose Estimation from Monocular Video [33.801470193414325]
この研究は、地上の真実データを通して3Dのポーズリフトを改善することに焦点を当てている。
本研究では,グローバルローカル適応グラフ畳み込みネットワーク(GLA-GCN)を提案する。
GLA-GCNは, 基礎的真理2Dで実装され, 最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-07-12T00:13:04Z) - Decomposed Human Motion Prior for Video Pose Estimation via Adversarial
Training [7.861513525154702]
本稿では, ニューラルネットワークが先行知識から容易に学習できるように, 関節運動の前に全体運動を分解することを提案する。
また,新たな正規化損失を利用して,前もって導入された動きの正確さと滑らかさのバランスをとる。
提案手法は従来の3DPW法と比較して, PA-MPJPEが9%, 加速度誤差が29%低い。
論文 参考訳(メタデータ) (2023-05-30T04:53:34Z) - T2M-GPT: Generating Human Motion from Textual Descriptions with Discrete
Representations [34.61255243742796]
一般的なトレーニングレシピ (EMA と Code Reset) を用いた単純な CNN ベースの VQ-VAE により,高品質な離散表現が得られることを示す。
その単純さにもかかわらず、我々のT2M-GPTは競合するアプローチよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-01-15T09:34:42Z) - STAR: Sparse Transformer-based Action Recognition [61.490243467748314]
本研究は,空間的次元と時間的次元に細かな注意を払っている新しいスケルトンに基づく人間行動認識モデルを提案する。
実験により、トレーニング可能なパラメータをはるかに少なくし、トレーニングや推論の高速化を図りながら、モデルが同等のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-07-15T02:53:11Z) - Synthetic Training for Monocular Human Mesh Recovery [100.38109761268639]
本稿では,RGB画像と大規模に異なる複数の身体部位の3次元メッシュを推定することを目的とする。
主な課題は、2D画像のすべての身体部分の3Dアノテーションを完備するトレーニングデータがないことである。
本稿では,D2S(Deep-to-scale)投影法を提案する。
論文 参考訳(メタデータ) (2020-10-27T03:31:35Z) - Motion Guided 3D Pose Estimation from Videos [81.14443206968444]
本研究では,2次元ポーズから1次元の人物ポーズ推定を行う問題に対して,運動損失と呼ばれる新たな損失関数を提案する。
運動損失の計算では、ペアワイズ・モーション・エンコーディング(ペアワイズ・モーション・エンコーディング)と呼ばれる単純なキーポイント・モーションの表現が導入された。
UGCN(U-shaped GCN)と呼ばれる新しいグラフ畳み込みネットワークアーキテクチャを設計し,短期および長期の動作情報の両方をキャプチャする。
論文 参考訳(メタデータ) (2020-04-29T06:59:30Z) - Dense Regression Network for Video Grounding [97.57178850020327]
地上の真理の中のフレームと開始(終了)フレームの間の距離を高密度の監督として利用し、映像のグラウンド化精度を向上させる。
具体的には、各フレームからビデオセグメントの開始(終了)フレームまでの距離を抑えるために、新しい高密度回帰ネットワーク(DRN)を設計する。
また,グラウンドリング結果の局所化品質を明示的に考慮するために,単純だが効果的なIoU回帰ヘッドモジュールを提案する。
論文 参考訳(メタデータ) (2020-04-07T17:15:37Z) - Human Motion Transfer from Poses in the Wild [61.6016458288803]
人間の動き伝達の問題に対処し、基準映像からの動きを模倣する対象人物のための新しい動き映像を合成する。
推定ポーズを用いて2つのドメインをブリッジするビデオ間翻訳タスクである。
トレーニング中に見つからない線内ポーズシーケンスであっても、時間的に一貫性のある高品質なビデオを生成するための新しいポーズ・ツー・ビデオ翻訳フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-07T05:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。