論文の概要: DualSDF: Semantic Shape Manipulation using a Two-Level Representation
- arxiv url: http://arxiv.org/abs/2004.02869v1
- Date: Mon, 6 Apr 2020 17:59:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 05:51:25.397105
- Title: DualSDF: Semantic Shape Manipulation using a Two-Level Representation
- Title(参考訳): DualSDF:2レベル表現を用いた意味的形状操作
- Authors: Zekun Hao, Hadar Averbuch-Elor, Noah Snavely, Serge Belongie
- Abstract要約: 本稿では,2段階の粒度で形状を表現するDualSDFと,抽象化されたプロキシ形状を表すDualSDFを提案する。
我々の2段階モデルでは、ユーザが対話的に粗いプロキシの形状を操作でき、その変化を即座に高解像度の形状に反映できる新しい形状操作技術が生み出される。
- 参考スコア(独自算出の注目度): 54.62411904952258
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We are seeing a Cambrian explosion of 3D shape representations for use in
machine learning. Some representations seek high expressive power in capturing
high-resolution detail. Other approaches seek to represent shapes as
compositions of simple parts, which are intuitive for people to understand and
easy to edit and manipulate. However, it is difficult to achieve both fidelity
and interpretability in the same representation. We propose DualSDF, a
representation expressing shapes at two levels of granularity, one capturing
fine details and the other representing an abstracted proxy shape using simple
and semantically consistent shape primitives. To achieve a tight coupling
between the two representations, we use a variational objective over a shared
latent space. Our two-level model gives rise to a new shape manipulation
technique in which a user can interactively manipulate the coarse proxy shape
and see the changes instantly mirrored in the high-resolution shape. Moreover,
our model actively augments and guides the manipulation towards producing
semantically meaningful shapes, making complex manipulations possible with
minimal user input.
- Abstract(参考訳): 機械学習で使用する3d形状表現がcambrianで爆発的に増えている。
一部の表現は高解像度の詳細を捉える際に高い表現力を求める。
その他のアプローチでは、形状を単純な部分のコンポジションとして表現し、人々が直感的に理解し、編集し、操作しやすくすることを目指している。
しかし、同じ表現で忠実性と解釈性の両方を達成することは困難である。
本稿では,2段階の粒度で形状を表現するDualSDFと,単純で意味論的に整合した形状プリミティブを用いた抽象的なプロキシ形状を表現するDualSDFを提案する。
2つの表現間の密結合を達成するために、共有潜在空間上の変動目標を用いる。
我々の2段階モデルでは、ユーザが対話的に粗いプロキシの形状を操作でき、その変化を即座に高解像度の形状に反映できる新しい形状操作技術が生み出される。
さらに,本モデルは,意味的に意味のある形状を生成する操作を積極的に強化し,ユーザ入力を最小にすることで複雑な操作を可能にする。
関連論文リスト
- DeFormer: Integrating Transformers with Deformable Models for 3D Shape
Abstraction from a Single Image [31.154786931081087]
本稿では,パラメータ化デフォルマブルモデルと統合された新しいバイチャネルトランスフォーマアーキテクチャを提案し,プリミティブのグローバルおよび局所的な変形を同時に推定する。
DeFormerは、最先端技術よりもより良い再構築精度を実現し、一貫したセマンティック対応で可視化し、解釈性を向上させる。
論文 参考訳(メタデータ) (2023-09-22T02:46:43Z) - Self-supervised Learning of Implicit Shape Representation with Dense
Correspondence for Deformable Objects [26.102490905989338]
変形可能な物体に対する暗黙的形状表現を学習するための,新しい自己教師型アプローチを提案する。
本手法は, 骨格と皮膚の重量の先行を必要とせず, 符号付き距離場で表現される形状の収集のみを必要とする。
我々のモデルは大きな変形を伴う形状を表現することができ、テクスチャ転送や形状編集といった2つの典型的な応用をサポートすることができる。
論文 参考訳(メタデータ) (2023-08-24T06:38:33Z) - SDFusion: Multimodal 3D Shape Completion, Reconstruction, and Generation [89.47132156950194]
本稿では,アマチュアユーザのための3Dアセット生成を簡易化する新しいフレームワークを提案する。
提案手法は,人間によって容易に提供可能な様々な入力モダリティをサポートする。
私たちのモデルは、これらのタスクをひとつのSwiss-army-knifeツールにまとめることができます。
論文 参考訳(メタデータ) (2022-12-08T18:59:05Z) - NeuForm: Adaptive Overfitting for Neural Shape Editing [67.16151288720677]
我々は,各形状領域に最も適した表現を適応的に使用することにより,過度に適合した表現と一般化可能な表現の両方の利点を組み合わせるために,NEUFORMを提案する。
椅子やテーブル,ランプなど,人間が設計した形状のパーツの再構成に成功した編集を実演する。
2つの最先端のコンペティタを比較し、その結果の妥当性と忠実さに関して、明確な改善を実証する。
論文 参考訳(メタデータ) (2022-07-18T19:00:14Z) - Deep Implicit Templates for 3D Shape Representation [70.9789507686618]
深い暗黙表現における明示的な対応推論を支援する新しい3次元形状表現を提案する。
我々のキーとなる考え方は、テンプレートの暗黙関数の条件変形としてDIFを定式化することである。
提案手法は,形状の集合に対する一般的な暗黙テンプレートを学習するだけでなく,すべての形状を相互に同時に対応させることも可能であることを示す。
論文 参考訳(メタデータ) (2020-11-30T06:01:49Z) - Learning to Caricature via Semantic Shape Transform [95.25116681761142]
本稿では,意味的形状変換に基づくアルゴリズムを提案する。
提案手法は,顔の構造を維持しつつ,視覚的に心地よい形状の誇張を表現できることを示す。
論文 参考訳(メタデータ) (2020-08-12T03:41:49Z) - PatchNets: Patch-Based Generalizable Deep Implicit 3D Shape
Representations [75.42959184226702]
物体認識訓練のための中級パッチベースサーフェス表現を提案する。
形状や部分点雲の完全化など,新しい表現の応用例をいくつか紹介する。
論文 参考訳(メタデータ) (2020-08-04T15:34:46Z) - Learning Generative Models of Shape Handles [43.41382075567803]
ハンドセットとして3次元形状を合成する生成モデルを提案する。
我々のモデルは、様々な濃度と異なる種類のハンドルを持つハンドセットを生成することができる。
得られた形状表現は直感的であり,従来の最先端技術よりも優れた品質が得られることを示す。
論文 参考訳(メタデータ) (2020-04-06T22:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。