論文の概要: Shape of You: Precise 3D shape estimations for diverse body types
- arxiv url: http://arxiv.org/abs/2304.07389v1
- Date: Fri, 14 Apr 2023 20:53:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 19:20:34.438018
- Title: Shape of You: Precise 3D shape estimations for diverse body types
- Title(参考訳): shape of you: 多様な体型に対する正確な3次元形状推定
- Authors: Rohan Sarkar, Achal Dave, Gerard Medioni, Benjamin Biggs
- Abstract要約: 本稿では,視覚に基づく衣服レコメンデーションシステムにおける3次元体形推定の精度向上のためのアプローチを提案する。
パラメトリックな3次元再構成パイプラインに容易に統合できる2つの損失関数を提案する。
SSP-3Dデータセットでは,最近のSHAPY法よりも17.7%向上した。
- 参考スコア(独自算出の注目度): 5.037272815698192
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents Shape of You (SoY), an approach to improve the accuracy
of 3D body shape estimation for vision-based clothing recommendation systems.
While existing methods have successfully estimated 3D poses, there remains a
lack of work in precise shape estimation, particularly for diverse human
bodies. To address this gap, we propose two loss functions that can be readily
integrated into parametric 3D human reconstruction pipelines. Additionally, we
propose a test-time optimization routine that further improves quality. Our
method improves over the recent SHAPY method by 17.7% on the challenging SSP-3D
dataset. We consider our work to be a step towards a more accurate 3D shape
estimation system that works reliably on diverse body types and holds promise
for practical applications in the fashion industry.
- Abstract(参考訳): 本稿では,視覚に基づく衣服推薦システムにおける3次元体形推定の精度向上を目的としたShape of You (SoY)を提案する。
既存の手法は3dのポーズを推定することに成功したが、正確な形状推定、特に多様な人体に対する作業が不足している。
このギャップに対処するために,パラメトリック3次元ヒューマンリコンストラクションパイプラインに容易に統合できる2つの損失関数を提案する。
さらに,品質を向上するテスト時間最適化ルーチンを提案する。
SSP-3Dデータセットでは,最近のSHAPY法よりも17.7%向上した。
我々は, 多様な体型に対して確実に機能し, ファッション業界における実用的な応用を期待できる, より正確な3次元形状推定システムへの一歩であると考えている。
関連論文リスト
- SelfSplat: Pose-Free and 3D Prior-Free Generalizable 3D Gaussian Splatting [4.121797302827049]
ポーズフリーで3次元の事前自由な一般化可能な3次元再構成を実現するための新しい3次元ガウススプラッティングモデルであるSelfSplatを提案する。
本モデルでは,これらの課題に対して,自己教師付き深度とポーズ推定手法を効果的に統合することによって対処する。
提案手法の性能を評価するため,RealEstate10K,ACID,DL3DVなどの大規模実世界のデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2024-11-26T08:01:50Z) - UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - Cloth2Body: Generating 3D Human Body Mesh from 2D Clothing [54.29207348918216]
Cloth2Bodyは、入力の部分的な観察と出力の多様性によって引き起こされる新しい課題に対処する必要がある。
本稿では,2次元衣料品画像のポーズと形状によってパラメータ化された3Dボディメッシュを高精度に推定できるエンドツーエンドフレームワークを提案する。
実験結果から示されるように,提案手法は最先端の性能を実現し,自然および多様な3Dボディメッシュを2次元画像から効果的に回収することができる。
論文 参考訳(メタデータ) (2023-09-28T06:18:38Z) - Advanced Baseline for 3D Human Pose Estimation: A Two-Stage Approach [1.52292571922932]
本稿では,2段階法における2次元から3次元への昇降過程に着目し,より高度な3次元ポーズ推定ベースラインモデルを提案する。
私たちの改善点は、機械学習モデルと複数のパラメータの最適化と、トレーニングモデルへの重み付き損失の導入です。
論文 参考訳(メタデータ) (2022-12-21T20:31:39Z) - PONet: Robust 3D Human Pose Estimation via Learning Orientations Only [116.1502793612437]
本稿では,学習向きのみを用いて3次元ポーズを頑健に推定できる新しいPose Orientation Net(PONet)を提案する。
PONetは、局所的な画像証拠を利用して、これらの手足の3D方向を推定し、3Dポーズを復元する。
我々は,Human3.6M,MPII,MPI-INF-3DHP,3DPWを含む複数のデータセットについて評価を行った。
論文 参考訳(メタデータ) (2021-12-21T12:48:48Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - HybrIK: A Hybrid Analytical-Neural Inverse Kinematics Solution for 3D
Human Pose and Shape Estimation [39.67289969828706]
本稿では,体メッシュ推定と3次元キーポイント推定のギャップを埋めるために,新しいハイブリッド逆キネマティクスソリューション(HybrIK)を提案する。
HybrIKは、正確な3D関節を相対的なボディ部分回転に変換し、3Dボディーメッシュを再構築する。
その結果,HybrIKは3次元ポーズの精度とパラメトリックな人間の身体構造の両方を保っていることがわかった。
論文 参考訳(メタデータ) (2020-11-30T10:32:30Z) - Synthetic Training for Monocular Human Mesh Recovery [100.38109761268639]
本稿では,RGB画像と大規模に異なる複数の身体部位の3次元メッシュを推定することを目的とする。
主な課題は、2D画像のすべての身体部分の3Dアノテーションを完備するトレーニングデータがないことである。
本稿では,D2S(Deep-to-scale)投影法を提案する。
論文 参考訳(メタデータ) (2020-10-27T03:31:35Z) - Synthetic Training for Accurate 3D Human Pose and Shape Estimation in
the Wild [27.14060158187953]
本稿では,RGB画像からの単眼立体形状とポーズ推定の問題に対処する。
本研究では, シルエットや2次元関節などのプロキシ表現を形状と回帰ニューラルネットワークの入力として利用するシステムであるSTRAPSを提案する。
STRAPSは形状予測精度においてSSP-3Dの他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-21T16:39:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。