論文の概要: Learning Body-Aware 3D Shape Generative Models
- arxiv url: http://arxiv.org/abs/2112.07022v1
- Date: Mon, 13 Dec 2021 21:19:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 06:32:42.489242
- Title: Learning Body-Aware 3D Shape Generative Models
- Title(参考訳): 体型3次元形状生成モデルの学習
- Authors: Bryce Blinn, Alexander Ding, Daniel Ritchie, R. Kenny Jones, Srinath
Sridhar, Manolis Savva
- Abstract要約: 既存の3次元形状のデータ駆動生成モデルは、可塑性オブジェクトを生成する。
本稿では,3次元形状の身体認識生成モデルについて述べる。
- 参考スコア(独自算出の注目度): 72.82563334734014
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The shape of many objects in the built environment is dictated by their
relationships to the human body: how will a person interact with this object?
Existing data-driven generative models of 3D shapes produce plausible objects
but do not reason about the relationship of those objects to the human body. In
this paper, we learn body-aware generative models of 3D shapes. Specifically,
we train generative models of chairs, an ubiquitous shape category, which can
be conditioned on a given body shape or sitting pose. The
body-shape-conditioned models produce chairs which will be comfortable for a
person with the given body shape; the pose-conditioned models produce chairs
which accommodate the given sitting pose. To train these models, we define a
"sitting pose matching" metric and a novel "sitting comfort" metric.
Calculating these metrics requires an expensive optimization to sit the body
into the chair, which is too slow to be used as a loss function for training a
generative model. Thus, we train neural networks to efficiently approximate
these metrics. We use our approach to train three body-aware generative shape
models: a structured part-based generator, a point cloud generator, and an
implicit surface generator. In all cases, our approach produces models which
adapt their output chair shapes to input human body specifications.
- Abstract(参考訳): 構築された環境における多くの物体の形状は、人体との関係によって決定される。
既存の3d形状のデータ駆動生成モデルは、妥当なオブジェクトを生成するが、それらのオブジェクトと人体の関係を推論しない。
本稿では,3次元形状の身体認識生成モデルについて述べる。
具体的には,所定の体型や座位で条件づけ可能なユビキタスな形状カテゴリである椅子の生成モデルを訓練する。
体型条件付きモデルは、所定の体型を持つ人に快適な椅子を作り、ポーズ条件付きモデルは、所定の着座ポーズに対応する椅子を作る。
これらのモデルのトレーニングには、"シッティングポーズマッチング"メトリックと、新しい"シッティング快適"メトリックを定義する。
これらの測定値を計算するには、体を椅子に座らせるための高価な最適化が必要で、生成モデルを訓練するための損失関数として使うには遅すぎる。
したがって、これらのメトリクスを効率的に近似するためにニューラルネットワークを訓練する。
我々は3つの身体認識型生成モデル(構造化部分ベース生成器、ポイントクラウド生成器、暗黙的表面生成器)を訓練する。
いずれの場合も,本手法は人体仕様入力に出力チェア形状を適応させるモデルを生成する。
関連論文リスト
- Accurate 3D Body Shape Regression using Metric and Semantic Attributes [55.58629009876271]
画像からの3次元身体形状の回帰は、人文計測や言語的形状特性から訓練できることを示す。
これは、画像から3次元の身体形状の回帰を、容易に測定できる人文計測と言語的形状特性から訓練できる最初の実演である。
論文 参考訳(メタデータ) (2022-06-14T17:54:49Z) - COAP: Compositional Articulated Occupancy of People [28.234772596912162]
人体を明瞭に表現する新しい神経暗黙表現法を提案する。
我々は、ニューラルネットワークの占有度を学習するために、部分認識エンコーダデコーダアーキテクチャを採用する。
提案手法は, 効率と精度の両面において, 既存の解よりも優れていた。
論文 参考訳(メタデータ) (2022-04-13T06:02:20Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - GRAB: A Dataset of Whole-Body Human Grasping of Objects [53.00728704389501]
人間の把握を理解するためのコンピュータの訓練には、複雑な3Dオブジェクトの形状、詳細な接触情報、ポーズと形状、時間の経過とともに3Dボディの動きを含む豊富なデータセットが必要である。
全身の3次元形状を含むGRABと呼ばれる新しいデータセットを収集し、形状と大きさの異なる51の日常的な物体と相互作用する10人の被験者のシーケンスを合成する。
これは、人間がオブジェクトをつかみ、操作する方法、全身がどのように関与し、どのように相互作用がタスクによって異なるかを理解するために、既存のデータセットをはるかに超えています。
論文 参考訳(メタデータ) (2020-08-25T17:57:55Z) - Combining Implicit Function Learning and Parametric Models for 3D Human
Reconstruction [123.62341095156611]
深層学習近似として表される暗黙の関数は、3次元曲面の再構成に強力である。
このような機能は、コンピュータグラフィックスとコンピュータビジョンの両方に柔軟なモデルを構築するのに不可欠である。
詳細に富んだ暗黙関数とパラメトリック表現を組み合わせた方法論を提案する。
論文 参考訳(メタデータ) (2020-07-22T13:46:14Z) - Unsupervised Shape and Pose Disentanglement for 3D Meshes [49.431680543840706]
本研究では,非教師付き環境において,非教師付き形状とポーズ表現を学習するための,シンプルで効果的なアプローチを提案する。
自己整合性と相互整合性の制約を組み合わせて、登録メッシュからポーズと空間の形状を学ぶ。
ポーズ転送や形状検索などのタスクを通じて,学習した表現の有用性を示す。
論文 参考訳(メタデータ) (2020-07-22T11:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。