論文の概要: ETCH: Generalizing Body Fitting to Clothed Humans via Equivariant Tightness
- arxiv url: http://arxiv.org/abs/2503.10624v1
- Date: Thu, 13 Mar 2025 17:59:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:54:03.259697
- Title: ETCH: Generalizing Body Fitting to Clothed Humans via Equivariant Tightness
- Title(参考訳): ETCH:均質な太さで着る人間の体を一般化する
- Authors: Boqian Li, Haiwen Feng, Zeyu Cai, Michael J. Black, Yuliang Xiu,
- Abstract要約: Equivariant Tightness Fitting for Clothed Humans(ETCH)は、布の表面マッピングを推定する新しいパイプラインである。
CAPEと4D-Dressの実験では、ETCHは最先端の手法よりも大幅に優れていた。
我々の等変タイトネス設計は、一発(またはアウト・オブ・ディストリビューション)設定で方向誤差を67.2%(89.8%)減らすことができる。
- 参考スコア(独自算出の注目度): 44.830753683359184
- License:
- Abstract: Fitting a body to a 3D clothed human point cloud is a common yet challenging task. Traditional optimization-based approaches use multi-stage pipelines that are sensitive to pose initialization, while recent learning-based methods often struggle with generalization across diverse poses and garment types. We propose Equivariant Tightness Fitting for Clothed Humans, or ETCH, a novel pipeline that estimates cloth-to-body surface mapping through locally approximate SE(3) equivariance, encoding tightness as displacement vectors from the cloth surface to the underlying body. Following this mapping, pose-invariant body features regress sparse body markers, simplifying clothed human fitting into an inner-body marker fitting task. Extensive experiments on CAPE and 4D-Dress show that ETCH significantly outperforms state-of-the-art methods -- both tightness-agnostic and tightness-aware -- in body fitting accuracy on loose clothing (16.7% ~ 69.5%) and shape accuracy (average 49.9%). Our equivariant tightness design can even reduce directional errors by (67.2% ~ 89.8%) in one-shot (or out-of-distribution) settings. Qualitative results demonstrate strong generalization of ETCH, regardless of challenging poses, unseen shapes, loose clothing, and non-rigid dynamics. We will release the code and models soon for research purposes at https://boqian-li.github.io/ETCH/.
- Abstract(参考訳): 体を3Dの布で覆った人点雲に合わせることは、よくあるが難しい仕事だ。
従来の最適化ベースのアプローチでは、初期化に敏感なマルチステージパイプラインを使用するのに対して、最近の学習ベースの手法では、さまざまなポーズや衣服タイプにわたる一般化に苦労することが多い。
衣服表面から下方体への変位ベクトルとしてタイトネスを符号化し, 局所近似SE(3)等分による布間表面マッピングを推定する新しいパイプラインであるETCHを提案する。
このマッピングに続いて、ポーズ不変体は、リグレススパースボディマーカーを特徴とし、インナーボディマーカーフィッティングタスクへの布張り人間の嵌合を簡素化する。
CAPEと4D-Dressの広範囲にわたる実験により、ETCHは、ゆるい衣服(16.7% ~ 69.5%)と形状精度(平均49.9%)において、最先端の手法(タイトネス非依存とタイトネス認識の両方)を著しく上回っていることが示された。
我々の等変タイトネス設計は、1ショット(またはアウト・オブ・ディストリビューション)設定で方向誤差を(67.2%~89.8%)減らすことができる。
質的な結果は、難解なポーズ、目に見えない形状、ゆるい衣服、厳密でないダイナミクスによらず、ETCHの強力な一般化を示す。
研究目的のコードとモデルについては、近々https://boqian-li.github.io/ETCH/で公開します。
関連論文リスト
- CondiMen: Conditional Multi-Person Mesh Recovery [0.0]
本研究ではコンディメン(CondiMen)を提案する。コンディメン(CondiMen)は、カメラへのポーズ、体形、内在性、距離に関する共同パラメトリック分布を出力する手法である。
私たちのモデルは、最先端技術と同等以上のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-12-17T16:22:56Z) - AiOS: All-in-One-Stage Expressive Human Pose and Shape Estimation [55.179287851188036]
人間のポーズと形状の復元のための新しいオールインワンステージフレームワークであるAiOSを、追加の人間検出ステップなしで導入する。
まず、画像中の人間の位置を探索し、各インスタンスのグローバルな機能をエンコードするために、人間のトークンを使用します。
そして、画像中の人間の関節を探索し、きめ細かい局所的特徴を符号化するジョイント関連トークンを導入する。
論文 参考訳(メタデータ) (2024-03-26T17:59:23Z) - Generalizing Neural Human Fitting to Unseen Poses With Articulated SE(3)
Equivariance [48.39751410262664]
ArtEqは、点雲からのSMPLモデル推定のための部分ベースSE(3)等価ニューラルネットワークである。
実験の結果,ArtEqはトレーニング中に見えない動作を一般化し,身体再建精度の点で最先端の手法を44%上回った。
論文 参考訳(メタデータ) (2023-04-20T17:58:26Z) - AlphaPose: Whole-Body Regional Multi-Person Pose Estimation and Tracking
in Real-Time [47.19339667836196]
提案するAlphaPoseは,リアルタイムに動作しながら,身体全体のポーズを正確に推定・追跡できるシステムである。
我々は,COCO-全体,COCO,PoseTrack,提案したHalpe-FullBodyポーズ推定データセットにおいて,現在の最先端手法よりも高速かつ高精度であることを示す。
論文 参考訳(メタデータ) (2022-11-07T09:15:38Z) - Bottom-Up 2D Pose Estimation via Dual Anatomical Centers for Small-Scale
Persons [75.86463396561744]
マルチパーソン2Dポーズ推定では、ボトムアップ手法は同時にすべての人のポーズを予測する。
本手法は,バウンディングボックス精度を38.4%改善し,バウンディングボックスリコールを39.1%改善した。
ヒトのポーズAP評価では,COCOテストデフセット上で新しいSOTA(71.0 AP)を単一スケールテストで達成する。
論文 参考訳(メタデータ) (2022-08-25T10:09:10Z) - Dual networks based 3D Multi-Person Pose Estimation from Monocular Video [42.01876518017639]
複数人の3Dポーズ推定はシングルポーズ推定よりも難しい。
既存のトップダウンとボトムアップのアプローチでは、推定が検出エラーに悩まされる。
我々は,トップダウンアプローチとボトムアップアプローチを統合して,その強みを活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T08:53:38Z) - Locally Aware Piecewise Transformation Fields for 3D Human Mesh
Registration [67.69257782645789]
本論文では,3次元変換ベクトルを学習し,提案空間内の任意のクエリ点をリザーブ空間内の対応する位置にマップする部分変換場を提案する。
パラメトリックモデルにネットワークのポーズを合わせることで、特に極端なポーズにおいて、より優れた登録品質が得られることを示す。
論文 参考訳(メタデータ) (2021-04-16T15:16:09Z) - SCANimate: Weakly Supervised Learning of Skinned Clothed Avatar Networks [54.94737477860082]
本論文では,着る人間の生の3Dスキャンをイメージ可能なアバターに変える,エンドツーエンドのトレーニング可能なフレームワークを提案する。
SCANimateはカスタマイズされたメッシュテンプレートや表面メッシュ登録に依存しません。
本手法はポーズ認識型外観モデルに適用でき,完全にテクスチャ化されたアバターを生成できる。
論文 参考訳(メタデータ) (2021-04-07T17:59:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。