論文の概要: Odo: Depth-Guided Diffusion for Identity-Preserving Body Reshaping
- arxiv url: http://arxiv.org/abs/2508.13065v1
- Date: Mon, 18 Aug 2025 16:37:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.48647
- Title: Odo: Depth-Guided Diffusion for Identity-Preserving Body Reshaping
- Title(参考訳): 奥道:身元保存体形形成のための奥行き誘導拡散
- Authors: Siddharth Khandelwal, Sridhar Kamath, Arjun Jain,
- Abstract要約: 本研究では1523名の被験者を対象とした18,573枚の画像の大規模なデータセットについて紹介する。
簡単な意味的属性によって導かれる現実的で直感的な身体再構成を可能にする,エンドツーエンドの拡散に基づく手法であるOdoを提案する。
提案手法は,入力画像から微細な外観や背景の詳細を保存した凍結UNetと,SMPL深度マップを用いた形状変換を誘導するコントロールネットを組み合わせる。
- 参考スコア(独自算出の注目度): 13.624112986131012
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human shape editing enables controllable transformation of a person's body shape, such as thin, muscular, or overweight, while preserving pose, identity, clothing, and background. Unlike human pose editing, which has advanced rapidly, shape editing remains relatively underexplored. Current approaches typically rely on 3D morphable models or image warping, often introducing unrealistic body proportions, texture distortions, and background inconsistencies due to alignment errors and deformations. A key limitation is the lack of large-scale, publicly available datasets for training and evaluating body shape manipulation methods. In this work, we introduce the first large-scale dataset of 18,573 images across 1523 subjects, specifically designed for controlled human shape editing. It features diverse variations in body shape, including fat, muscular and thin, captured under consistent identity, clothing, and background conditions. Using this dataset, we propose Odo, an end-to-end diffusion-based method that enables realistic and intuitive body reshaping guided by simple semantic attributes. Our approach combines a frozen UNet that preserves fine-grained appearance and background details from the input image with a ControlNet that guides shape transformation using target SMPL depth maps. Extensive experiments demonstrate that our method outperforms prior approaches, achieving per-vertex reconstruction errors as low as 7.5mm, significantly lower than the 13.6mm observed in baseline methods, while producing realistic results that accurately match the desired target shapes.
- Abstract(参考訳): 人間の形状の編集は、ポーズ、アイデンティティ、衣服、背景を保存しながら、薄い、筋肉質、太りすぎなどの人の体形を制御可能な変換を可能にする。
急速に進歩した人間のポーズ編集とは異なり、形状編集は比較的未発見のままである。
現在のアプローチは一般的に3Dフォーマブルモデルやイメージワープに依存しており、しばしば非現実的なボディ比、テクスチャの歪み、アライメントエラーや変形による背景の不整合を導入している。
鍵となる制限は、ボディシェイプ操作方法のトレーニングと評価のための大規模な公開データセットの欠如である。
本研究では、1523名の被験者を対象とした18,573枚の画像の大規模なデータセットについて紹介する。
体型は多様で、脂肪、筋肉、薄く、一貫したアイデンティティ、衣服、背景条件で捕獲される。
本データセットを用いて,シンプルなセマンティック属性でガイドされた現実的で直感的な身体再構成を可能にする,エンドツーエンドの拡散ベース手法であるOdoを提案する。
提案手法は,入力画像から微細な外観や背景の詳細を保存した凍結UNetと,SMPL深度マップを用いた形状変換を誘導するコントロールネットを組み合わせる。
大規模な実験により,本手法は従来の手法よりも優れた性能を示し,本手法で観測した13.6mmよりも有意に低い7.5mmの頂点間再構成誤差を達成できるとともに,所望の形状と正確に一致した現実的な結果が得られた。
関連論文リスト
- Canonical Pose Reconstruction from Single Depth Image for 3D Non-rigid Pose Recovery on Limited Datasets [55.84702107871358]
2Dインプットからの3D再構成、特に人間のような非剛体オブジェクトは、ユニークな課題を提示する。
従来の手法は、変形空間全体をカバーするために広範囲なトレーニングデータを必要とする非剛体形状に苦しむことが多い。
本研究では,変形可能な形状の単一視点深度画像を標準形に変換する正準ポーズ再構成モデルを提案する。
論文 参考訳(メタデータ) (2025-05-23T14:58:34Z) - ShapeBoost: Boosting Human Shape Estimation with Part-Based
Parameterization and Clothing-Preserving Augmentation [58.50613393500561]
本研究では,新しい形状復元フレームワークであるShapeBoostを提案する。
稀な体型であってもピクセルレベルのアライメントを実現し、異なるタイプの服を着ている人には高い精度が期待できる。
論文 参考訳(メタデータ) (2024-03-02T23:40:23Z) - DiffBody: Diffusion-based Pose and Shape Editing of Human Images [1.7188280334580193]
本稿では,アイデンティティを保存した大規模な編集を可能にするワンショットアプローチを提案する。
大きな編集を可能にするため、3Dボディモデルに適合し、入力画像を3Dモデルに投影し、身体のポーズと形状を変更する。
我々は、自己教師付き学習によるテキスト埋め込みを微調整することで、現実主義をさらに強化する。
論文 参考訳(メタデータ) (2024-01-05T13:36:19Z) - DragD3D: Realistic Mesh Editing with Rigidity Control Driven by 2D Diffusion Priors [10.355568895429588]
ダイレクトメッシュの編集と変形は、幾何学的モデリングとアニメーションパイプラインの重要なコンポーネントである。
正規化器は、オブジェクトのグローバルなコンテキストとセマンティクスを意識していない。
我々の変形を制御して,グローバルな文脈を意識した現実的な形状の変形を生成できることが示される。
論文 参考訳(メタデータ) (2023-10-06T19:55:40Z) - Neural Shape Deformation Priors [14.14047635248036]
本稿では,新しい形状操作法であるニューラル・シェイプ・フォーメーション・プレファレンスを提案する。
形状の幾何学的性質に基づいて変形挙動を学習する。
本手法は, 難解な変形に対して適用可能であり, 未知の変形に対して良好に一般化できる。
論文 参考訳(メタデータ) (2022-10-11T17:03:25Z) - Pop-Out Motion: 3D-Aware Image Deformation via Learning the Shape
Laplacian [58.704089101826774]
形状分類と変形型に最小限の制約を課した3次元画像変形法を提案する。
点雲として表される3次元再構成の基底体積のラプラシアン形状を予測するために,教師付き学習に基づくアプローチを採用する。
実験では,2次元キャラクタと人間の衣料画像の変形実験を行った。
論文 参考訳(メタデータ) (2022-03-29T04:57:18Z) - NeuralReshaper: Single-image Human-body Retouching with Deep Neural
Networks [50.40798258968408]
本稿では,深部生成ネットワークを用いた単一画像における人体の意味的再構成手法であるNeuralReshaperを提案する。
われわれのアプローチは、まずパラメトリックな3次元人間モデルと元の人間の画像とを適合させるフィッティング・セイン・リフォーム・パイプラインに従う。
ペアデータが存在しないデータ不足に対処するために,ネットワークをトレーニングするための新たな自己教師型戦略を導入する。
論文 参考訳(メタデータ) (2022-03-20T09:02:13Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - SNARF: Differentiable Forward Skinning for Animating Non-Rigid Neural
Implicit Shapes [117.76767853430243]
SNARFは多角形メッシュに対する線形ブレンドスキンの利点とニューラル暗黙表面の利点を組み合わせたものである。
反復ルート探索を用いて任意の変形点のすべての正準対応を探索するフォワードスキンモデルを提案する。
最先端のニューラルネットワークの暗黙的表現と比較すると,このアプローチは,精度を維持しつつ,未認識のポーズを一般化する。
論文 参考訳(メタデータ) (2021-04-08T17:54:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。