論文の概要: From Kinematics To Dynamics: Estimating Center of Pressure and Base of
Support from Video Frames of Human Motion
- arxiv url: http://arxiv.org/abs/2001.00657v1
- Date: Thu, 2 Jan 2020 22:41:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 04:21:56.495252
- Title: From Kinematics To Dynamics: Estimating Center of Pressure and Base of
Support from Video Frames of Human Motion
- Title(参考訳): 運動学から動力学へ:人間の動きの映像フレームからの圧力と支持基盤の推定
- Authors: Jesse Scott, Christopher Funk, Bharadwaj Ravichandran, John H.
Challis, Robert T. Collins, Yanxi Liu
- Abstract要約: 本稿では,ビデオフレームから派生した2次元ポーズ(キネマティクス)から足圧ヒートマップを回帰するために,PressNetとPressNet-Simpleという2つのエンドツーエンドディープラーニングアーキテクチャを提案し,検証する。
6人の被験者からなる5分間の長調大地運動シーケンスからなる813,050対の同期対からなる一意のビデオおよび足圧データセットを収集し、一対一のクロスバリデーションに使用する。
最初の実験結果から, 単一画像からの足圧予測の信頼性と再現性を示し, コンピュータビジョンにおける複雑な相互対応写像問題に対する第1の基準線を設定した。
- 参考スコア(独自算出の注目度): 4.002298833349518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To gain an understanding of the relation between a given human pose image and
the corresponding physical foot pressure of the human subject, we propose and
validate two end-to-end deep learning architectures, PressNet and
PressNet-Simple, to regress foot pressure heatmaps (dynamics) from 2D human
pose (kinematics) derived from a video frame. A unique video and foot pressure
data set of 813,050 synchronized pairs, composed of 5-minute long choreographed
Taiji movement sequences of 6 subjects, is collected and used for
leaving-one-subject-out cross validation. Our initial experimental results
demonstrate reliable and repeatable foot pressure prediction from a single
image, setting the first baseline for such a complex cross modality mapping
problem in computer vision. Furthermore, we compute and quantitatively validate
the Center of Pressure (CoP) and Base of Support (BoS) from predicted foot
pressure distribution, obtaining key components in pose stability analysis from
images with potential applications in kinesiology, medicine, sports and
robotics.
- Abstract(参考訳): 人間のポーズ画像と被写体の物理的足圧の関係を理解するために,ビデオフレームから派生した2次元のポーズ(運動学)から足圧熱マップ(力学)を回帰するために,PressNetとPressNet-Simpleという2つのエンドツーエンドのディープラーニングアーキテクチャを提案し,検証した。
6人の被験者からなる5分間の長調大地運動シーケンスからなる813,050対の同期対からなる一意のビデオおよび足圧データセットを収集し、一対一のクロスバリデーションに使用する。
最初の実験では,1つの画像から信頼でき,反復可能な足圧予測を示し,コンピュータビジョンにおけるこのような複雑なクロスモダリティマッピング問題の最初のベースラインを設定した。
さらに,予測足圧分布からCenter of Pressure (CoP) と Base of Support (BoS) を計算,定量的に検証し,キネシオロジー,医学,スポーツ,ロボティクスに応用可能な画像から画像の安定度解析の重要成分を抽出した。
関連論文リスト
- Towards Precise 3D Human Pose Estimation with Multi-Perspective
Spatial-Temporal Relational Transformers [30.079169144728294]
人間のポーズ検出のための3次元シーケンス・ツー・シーケンス(seq2seq)フレームワークを提案する。
まず、空間モジュールは人物のポーズ特徴を画像内コンテンツで表現し、フレーム・イメージ関係モジュールは時間的関係を抽出する。
第2に、非人体部品からの干渉を排除し、演算資源を削減する自己注意機構を採用する。
論文 参考訳(メタデータ) (2024-01-30T03:00:25Z) - MassNet: A Deep Learning Approach for Body Weight Extraction from A
Single Pressure Image [0.41043522719179826]
圧力マッピングマットレスは非侵襲的でプライバシー保護のツールであり、ベッド表面上の圧力分布画像を取得する。
深層特徴を抽出し,それぞれに特徴を呈示するデュアルブランチネットワークを含む,深層学習に基づくモデルを提案する。
その結果,2つのデータセットに対して,モデルが最先端のアルゴリズムより優れていることがわかった。
論文 参考訳(メタデータ) (2023-03-17T17:24:57Z) - PresSim: An End-to-end Framework for Dynamic Ground Pressure Profile
Generation from Monocular Videos Using Physics-based 3D Simulation [8.107762252448195]
人体が受ける地圧は、広汎なセンシングにおいて、人間の活動認識(HAR)にとって貴重な情報源である。
本稿では,人間の活動のビデオからセンサデータを合成し,その労力を大幅に削減する,新しいエンドツーエンドフレームワークPresSimを提案する。
論文 参考訳(メタデータ) (2023-02-01T12:02:04Z) - Estimating Pose from Pressure Data for Smart Beds with Deep Image-based
Pose Estimators [16.937471403068685]
ベッド内ポーズ推定は、病院の患者モニタリング、睡眠研究、スマートホームなどの分野における価値を示している。
既存のポーズ推定器の助けを借りて、高度にあいまいな圧力データから身体のポーズを検出するための様々な戦略を探求する。
論文 参考訳(メタデータ) (2022-06-13T23:29:28Z) - Neural Rendering of Humans in Novel View and Pose from Monocular Video [68.37767099240236]
本稿では,新しい視点下で写真リアルな人間を生成し,モノクロ映像を入力として提示する新しい手法を提案する。
提案手法は,モノクラー映像を入力として,見知らぬポーズや新しい視点下での既存手法よりも優れていた。
論文 参考訳(メタデータ) (2022-04-04T03:09:20Z) - HighlightMe: Detecting Highlights from Human-Centric Videos [62.265410865423]
我々は,人間中心のビデオからハイライト可能な抜粋を検出するために,ドメインとユーザに依存しないアプローチを提案する。
本研究では,時空間グラフ畳み込みを用いたオートエンコーダネットワークを用いて,人間の活動やインタラクションを検出する。
我々は,最先端の手法に比べて,人手によるハイライトのマッチングの平均精度が4~12%向上したことを観察した。
論文 参考訳(メタデータ) (2021-10-05T01:18:15Z) - Learning Dynamics via Graph Neural Networks for Human Pose Estimation
and Tracking [98.91894395941766]
ポーズ検出とは無関係なポーズダイナミクスを学習する新しいオンライン手法を提案する。
具体的には、空間的・時間的情報と視覚的情報の両方を明示的に考慮したグラフニューラルネットワーク(GNN)を通して、このダイナミクスの予測を導出する。
PoseTrack 2017とPoseTrack 2018データセットの実験では、提案手法が人間のポーズ推定とトラッキングタスクの両方において、技術の現状よりも優れた結果が得られることを示した。
論文 参考訳(メタデータ) (2021-06-07T16:36:50Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - SimPoE: Simulated Character Control for 3D Human Pose Estimation [33.194787030240825]
SimPoEは、3Dヒューマンポース推定のためのシミュレーションベースのアプローチです。
画像ベースのキネマティック推論と物理ベースのダイナミクスモデリングを統合します。
提案手法は, 身体的信頼性を確保しつつ, 姿勢精度の新たな状態を確立する。
論文 参考訳(メタデータ) (2021-04-01T17:59:50Z) - Self-Attentive 3D Human Pose and Shape Estimation from Videos [82.63503361008607]
3D人間のポーズと形状推定のためのビデオベースの学習アルゴリズムを紹介します。
ビデオの時間情報を利用して自己着脱モジュールを提案する。
本手法を3DPW, MPI-INF-3DHP, Human3.6Mデータセット上で評価した。
論文 参考訳(メタデータ) (2021-03-26T00:02:19Z) - Contact and Human Dynamics from Monocular Video [73.47466545178396]
既存のディープモデルは、ほぼ正確に見えるエラーを含むビデオから2Dと3Dキネマティックのポーズを予測する。
本稿では,最初の2次元と3次元のポーズ推定を入力として,映像系列から3次元の人間の動きを推定する物理に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-22T21:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。