論文の概要: TailorMe: Self-Supervised Learning of an Anatomically Constrained
Volumetric Human Shape Model
- arxiv url: http://arxiv.org/abs/2312.02173v1
- Date: Fri, 3 Nov 2023 07:42:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 03:33:31.720118
- Title: TailorMe: Self-Supervised Learning of an Anatomically Constrained
Volumetric Human Shape Model
- Title(参考訳): TailorMe: 解剖学的に制約された容積形モデルの自己教師付き学習
- Authors: Stephan Wenninger and Fabian Kemper and Ulrich Schwanecke and Mario
Botsch
- Abstract要約: 人間の形状空間は、人間の形状の中核要素であり、推論タスクを装うため、広く研究されている。
骨格骨と軟組織からなる解剖学的テンプレートをCAESARデータベースの表面スキャンに作成する。
このデータは、人文的に制約された容積的人体形状モデルを自己監督的に学習するために使用される。
- 参考スコア(独自算出の注目度): 4.474107938692397
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Human shape spaces have been extensively studied, as they are a core element
of human shape and pose inference tasks. Classic methods for creating a human
shape model register a surface template mesh to a database of 3D scans and use
dimensionality reduction techniques, such as Principal Component Analysis, to
learn a compact representation. While these shape models enable global shape
modifications by correlating anthropometric measurements with the learned
subspace, they only provide limited localized shape control. We instead
register a volumetric anatomical template, consisting of skeleton bones and
soft tissue, to the surface scans of the CAESAR database. We further enlarge
our training data to the full Cartesian product of all skeletons and all soft
tissues using physically plausible volumetric deformation transfer. This data
is then used to learn an anatomically constrained volumetric human shape model
in a self-supervised fashion. The resulting TailorMe model enables shape
sampling, localized shape manipulation, and fast inference from given surface
scans.
- Abstract(参考訳): 人間の形状空間は、人間の形状の中核要素であり、推論タスクを装うため、広く研究されている。
人間の形状モデルを作成する古典的な方法は、表面テンプレートメッシュを3Dスキャンのデータベースに登録し、主成分分析のような次元削減技術を用いてコンパクトな表現を学ぶ。
これらの形状モデルは、人文計測と学習部分空間を関連づけることで、大域的な形状変化を可能にするが、限定的な局所的な形状制御しか提供しない。
代わりに、骨格骨と軟組織からなる体積解剖学的テンプレートをCAESARデータベースの表面スキャンに登録する。
さらに, 物理的に可能な体積変形移動を用いて, トレーニングデータを全骨格および軟組織の全デカルト積に拡張する。
このデータは、解剖学的に制約された体積的人体形状モデルを自己監督的に学習するために使用される。
結果のTailorMeモデルは、所定の表面スキャンから形状サンプリング、局所的な形状操作、高速な推論を可能にする。
関連論文リスト
- ShapeBoost: Boosting Human Shape Estimation with Part-Based
Parameterization and Clothing-Preserving Augmentation [58.50613393500561]
本研究では,新しい形状復元フレームワークであるShapeBoostを提案する。
稀な体型であってもピクセルレベルのアライメントを実現し、異なるタイプの服を着ている人には高い精度が期待できる。
論文 参考訳(メタデータ) (2024-03-02T23:40:23Z) - Mesh2SSM: From Surface Meshes to Statistical Shape Models of Anatomy [0.0]
我々は、教師なしの置換不変表現学習を利用して、テンプレートポイントクラウドを主題固有のメッシュに変形する方法を推定する新しいアプローチであるMesh2SSMを提案する。
Mesh2SSMは集団固有のテンプレートも学習でき、テンプレート選択によるバイアスを低減できる。
論文 参考訳(メタデータ) (2023-05-13T00:03:59Z) - A Generative Shape Compositional Framework to Synthesise Populations of
Virtual Chimaeras [52.33206865588584]
複雑な解剖学的構造に対する生成的形状モデルを導入し、未ペアデータセットのデータセットから学習する。
心臓のサブストラクチャのサンプルとして,全音節形状のデータベースから仮想キマエラを構築した。
提案手法は,PCAをベースとした形状モデル(完全データによる学習)を,汎用性と特異性の観点から大きく上回っている。
論文 参考訳(メタデータ) (2022-10-04T13:36:52Z) - Learning Population-level Shape Statistics and Anatomy Segmentation From
Images: A Joint Deep Learning Model [0.0]
点分布モデル(PDM)は、密度の高い対応によって解剖学的表面を表す。
本稿では,この2つの座標空間をボリューム画像から直接同時に学習するディープラーニングベースのフレームワークを提案する。
世界対応は、従来のPDMモデルに係わる重い前処理やセグメンテーションを回避し、形状解析の応用に直接使用することができる。
論文 参考訳(メタデータ) (2022-01-10T17:24:35Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - Identity-Disentangled Neural Deformation Model for Dynamic Meshes [8.826835863410109]
我々は、暗黙の神経機能を用いたポーズ依存的な変形から、同一性によって引き起こされる形状変化を歪曲する神経変形モデルを学ぶ。
本稿では,大域的ポーズアライメントとニューラル変形モデルを統合する2つの手法を提案する。
また, 固定テンプレートの制約を伴わずにヤシの印刷や腱などの表面の細部を再構築する際に, 従来の骨格駆動モデルよりも優れていた。
論文 参考訳(メタデータ) (2021-09-30T17:43:06Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - SCANimate: Weakly Supervised Learning of Skinned Clothed Avatar Networks [54.94737477860082]
本論文では,着る人間の生の3Dスキャンをイメージ可能なアバターに変える,エンドツーエンドのトレーニング可能なフレームワークを提案する。
SCANimateはカスタマイズされたメッシュテンプレートや表面メッシュ登録に依存しません。
本手法はポーズ認識型外観モデルに適用でき,完全にテクスチャ化されたアバターを生成できる。
論文 参考訳(メタデータ) (2021-04-07T17:59:58Z) - Combining Implicit Function Learning and Parametric Models for 3D Human
Reconstruction [123.62341095156611]
深層学習近似として表される暗黙の関数は、3次元曲面の再構成に強力である。
このような機能は、コンピュータグラフィックスとコンピュータビジョンの両方に柔軟なモデルを構築するのに不可欠である。
詳細に富んだ暗黙関数とパラメトリック表現を組み合わせた方法論を提案する。
論文 参考訳(メタデータ) (2020-07-22T13:46:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。