論文の概要: BodyMAP -- Jointly Predicting Body Mesh and 3D Applied Pressure Map for People in Bed
- arxiv url: http://arxiv.org/abs/2404.03183v1
- Date: Thu, 4 Apr 2024 03:45:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-05 15:53:27.714442
- Title: BodyMAP -- Jointly Predicting Body Mesh and 3D Applied Pressure Map for People in Bed
- Title(参考訳): BodyMAP -- ベッドの人のための人体メッシュと3D応用圧力マップを共同で予測する
- Authors: Abhishek Tandon, Anujraaj Goyal, Henry M. Clever, Zackory Erickson,
- Abstract要約: 人体メッシュと人体全体にわたる3次元加圧マップを共同で予測するBodyMAPについて紹介する。
本手法は,体メッシュおよび3次元加圧マップ予測タスクにおいて,現在の最先端技術よりも25%優れていた。
- 参考スコア(独自算出の注目度): 5.7496805993370845
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurately predicting the 3D human posture and the pressure exerted on the body for people resting in bed, visualized as a body mesh (3D pose & shape) with a 3D pressure map, holds significant promise for healthcare applications, particularly, in the prevention of pressure ulcers. Current methods focus on singular facets of the problem -- predicting only 2D/3D poses, generating 2D pressure images, predicting pressure only for certain body regions instead of the full body, or forming indirect approximations to the 3D pressure map. In contrast, we introduce BodyMAP, which jointly predicts the human body mesh and 3D applied pressure map across the entire human body. Our network leverages multiple visual modalities, incorporating both a depth image of a person in bed and its corresponding 2D pressure image acquired from a pressure-sensing mattress. The 3D pressure map is represented as a pressure value at each mesh vertex and thus allows for precise localization of high-pressure regions on the body. Additionally, we present BodyMAP-WS, a new formulation of pressure prediction in which we implicitly learn pressure in 3D by aligning sensed 2D pressure images with a differentiable 2D projection of the predicted 3D pressure maps. In evaluations with real-world human data, our method outperforms the current state-of-the-art technique by 25% on both body mesh and 3D applied pressure map prediction tasks for people in bed.
- Abstract(参考訳): 3次元の圧力マップで体メッシュ(3Dポーズと形状)として視覚化されたベッドで休息する人の体に作用する3次元姿勢と圧力を正確に予測することは、特に圧力潰瘍の予防において医療応用に有意な可能性を秘めている。
現在の手法では、問題の特異な面に注目しており、2D/3Dのポーズのみを予測し、2Dの圧力画像を生成し、全身の代わりに特定の身体領域のみを予測し、3Dの圧力マップに間接的な近似を形成する。
対照的に,人体メッシュと人体全体にわたる3次元加圧マップを共同で予測するBodyMAPを導入する。
本ネットワークは,ベッド内の人物の深度画像と,圧力感知マットレスから取得した2次元圧力画像とを併用して,複数の視覚的モダリティを利用する。
3次元圧力マップは、各メッシュ頂点における圧力値として表され、体上の高圧領域の正確な位置決めを可能にする。
さらに,感性2次元圧力像と予測された3次元圧力図の微分可能な2次元投影とを整列させて3次元の圧力を暗黙的に学習する新しい圧力予測法であるBodyMAP-WSを提案する。
実世界の人体データを用いた評価では, ベッド内の人体メッシュおよび3次元圧力マップ予測タスクにおいて, 現在の最先端技術よりも25%優れていた。
関連論文リスト
- FAMOUS: High-Fidelity Monocular 3D Human Digitization Using View Synthesis [51.193297565630886]
テクスチャを正確に推測することの難しさは、特に正面視画像の人物の背中のような不明瞭な領域に残る。
このテクスチャ予測の制限は、大規模で多様な3Dデータセットの不足に起因する。
本稿では,3次元デジタル化におけるテクスチャと形状予測の両立を図るために,広範囲な2次元ファッションデータセットを活用することを提案する。
論文 参考訳(メタデータ) (2024-10-13T01:25:05Z) - Cloth2Body: Generating 3D Human Body Mesh from 2D Clothing [54.29207348918216]
Cloth2Bodyは、入力の部分的な観察と出力の多様性によって引き起こされる新しい課題に対処する必要がある。
本稿では,2次元衣料品画像のポーズと形状によってパラメータ化された3Dボディメッシュを高精度に推定できるエンドツーエンドフレームワークを提案する。
実験結果から示されるように,提案手法は最先端の性能を実現し,自然および多様な3Dボディメッシュを2次元画像から効果的に回収することができる。
論文 参考訳(メタデータ) (2023-09-28T06:18:38Z) - Learning to Estimate 3D Human Pose from Point Cloud [13.27496851711973]
本稿では,複雑な人体構造物の表面をモデル化するための入力データとして,点雲データを用いた3次元ポーズ推定のための深層人体ポーズネットワークを提案する。
2つの公開データセットに対する実験により,従来の最先端手法よりも精度が高いことを示す。
論文 参考訳(メタデータ) (2022-12-25T14:22:01Z) - SPGNet: Spatial Projection Guided 3D Human Pose Estimation in Low
Dimensional Space [14.81199315166042]
本研究では,多次元再投影と教師あり学習を混合した3次元人間のポーズ推定手法を提案する。
提案手法は,データセットHuman3.6Mの推定結果に基づいて,定性的にも定量的にも,多くの最先端手法より優れている。
論文 参考訳(メタデータ) (2022-06-04T00:51:00Z) - PONet: Robust 3D Human Pose Estimation via Learning Orientations Only [116.1502793612437]
本稿では,学習向きのみを用いて3次元ポーズを頑健に推定できる新しいPose Orientation Net(PONet)を提案する。
PONetは、局所的な画像証拠を利用して、これらの手足の3D方向を推定し、3Dポーズを復元する。
我々は,Human3.6M,MPII,MPI-INF-3DHP,3DPWを含む複数のデータセットについて評価を行った。
論文 参考訳(メタデータ) (2021-12-21T12:48:48Z) - M3D-VTON: A Monocular-to-3D Virtual Try-On Network [62.77413639627565]
既存の3D仮想試行法は主に注釈付き3D人体形状と衣服テンプレートに依存している。
本稿では,2次元と3次元の両方のアプローチの利点を生かした,モノクロから3次元仮想トライオンネットワーク(M3D-VTON)を提案する。
論文 参考訳(メタデータ) (2021-08-11T10:05:17Z) - BodyPressure -- Inferring Body Pose and Contact Pressure from a Depth
Image [13.676743525349124]
深度画像から人体とマットレスの接触圧を推定する手法を提案する。
具体的には、下向きカメラからの奥行き画像を用いて、寝床の安静時の身体の圧力を推定する。
我々は、拡張データセットでトレーニングし、実データで評価する新しいディープネットワークを導入する。
論文 参考訳(メタデータ) (2021-05-20T17:55:31Z) - Residual Pose: A Decoupled Approach for Depth-based 3D Human Pose
Estimation [18.103595280706593]
我々は,CNNによる信頼度の高い2次元ポーズ推定の最近の進歩を活用し,深度画像から人物の3次元ポーズを推定する。
提案手法は2つの公開データセットの精度と速度の両面で非常に競争力のある結果が得られる。
論文 参考訳(メタデータ) (2020-11-10T10:08:13Z) - Towards Generalization of 3D Human Pose Estimation In The Wild [73.19542580408971]
3DBodyTex.Poseは、3Dの人間のポーズ推定のタスクに対処するデータセットである。
3DBodyTex.Poseは、さまざまな衣服やポーズで405種類の実際の被写体を含む高品質でリッチなデータを提供する。
論文 参考訳(メタデータ) (2020-04-21T13:31:58Z) - HandVoxNet: Deep Voxel-Based Network for 3D Hand Shape and Pose
Estimation from a Single Depth Map [72.93634777578336]
弱教師付き方式で3次元畳み込みを訓練した新しいアーキテクチャを提案する。
提案されたアプローチは、SynHand5Mデータセット上で、アートの状態を47.8%改善する。
我々の手法は、NYUとBigHand2.2Mデータセットで視覚的により合理的で現実的な手形を生成する。
論文 参考訳(メタデータ) (2020-04-03T14:27:16Z) - Bodies at Rest: 3D Human Pose and Shape Estimation from a Pressure Image
using Synthetic Data [22.264931349167412]
本研究では,圧力感知マットを用いたベッド内での安静時の人体をシミュレーションする物理法について述べる。
人間のポーズと形状を3Dで表現した206Kの圧力画像を用いた合成データセットであるSciencePoseを提示する。
また、圧力画像と性別が与えられた人間のポーズと形状を推定する深層学習モデルであるScienceNetも提示する。
論文 参考訳(メタデータ) (2020-04-02T17:44:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。