論文の概要: Explorable Mesh Deformation Subspaces from Unstructured Generative
Models
- arxiv url: http://arxiv.org/abs/2310.07814v1
- Date: Wed, 11 Oct 2023 18:53:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 14:13:44.880050
- Title: Explorable Mesh Deformation Subspaces from Unstructured Generative
Models
- Title(参考訳): 非構造生成モデルからの探索可能なメッシュ変形部分空間
- Authors: Arman Maesumi, Paul Guerrero, Vladimir G. Kim, Matthew Fisher,
Siddhartha Chaudhuri, Noam Aigerman, Daniel Ritchie
- Abstract要約: 3次元形状の深い生成モデルは、しばしば潜在的な変動を探索するために使用できる連続的な潜伏空間を特徴付ける。
本研究では,手軽に探索可能な2次元探索空間から事前学習された生成モデルのサブ空間へのマッピングを構築することで,与えられたランドマーク形状の集合間のバリエーションを探索する手法を提案する。
- 参考スコア(独自算出の注目度): 53.23510438769862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exploring variations of 3D shapes is a time-consuming process in traditional
3D modeling tools. Deep generative models of 3D shapes often feature continuous
latent spaces that can, in principle, be used to explore potential variations
starting from a set of input shapes. In practice, doing so can be problematic:
latent spaces are high dimensional and hard to visualize, contain shapes that
are not relevant to the input shapes, and linear paths through them often lead
to sub-optimal shape transitions. Furthermore, one would ideally be able to
explore variations in the original high-quality meshes used to train the
generative model, not its lower-quality output geometry. In this paper, we
present a method to explore variations among a given set of landmark shapes by
constructing a mapping from an easily-navigable 2D exploration space to a
subspace of a pre-trained generative model. We first describe how to find a
mapping that spans the set of input landmark shapes and exhibits smooth
variations between them. We then show how to turn the variations in this
subspace into deformation fields, to transfer those variations to high-quality
meshes for the landmark shapes. Our results show that our method can produce
visually-pleasing and easily-navigable 2D exploration spaces for several
different shape categories, especially as compared to prior work on learning
deformation spaces for 3D shapes.
- Abstract(参考訳): 3d形状のバリエーションを探ることは、従来の3dモデリングツールの時間を要するプロセスである。
3d形状の深い生成モデルは、入力形状のセットから生じる潜在的なバリエーションを探索するために、原則として使用できる連続的な潜在空間を特徴とすることが多い。
潜在空間は高次元で可視化が困難であり、入力形状と関係のない形状を含み、それらを通る線形経路は、しばしば準最適形状遷移をもたらす。
さらに、生成モデルの訓練に用いられる元の高品質メッシュのバリエーションを、低品質の出力幾何ではなく、探究できるのが理想的である。
本稿では,ナビゲーションが容易な2次元探索空間から事前学習された生成モデルの部分空間へのマッピングを構築することにより,所定のランドマーク形状のバリエーションを探索する手法を提案する。
まず、入力されるランドマークの集合にまたがるマッピングの方法を説明し、それらの間のスムーズなバリエーションを示す。
次に, この部分空間の変形を変形場に変換し, それらの変形をランドマーク形状の高品質メッシュに伝達する方法を示す。
提案手法は, 様々な形状カテゴリーに対して, 視覚的かつ容易な2次元探索空間を作成できることを示し, 特に3次元形状の変形空間の学習に関する先行研究と比較した。
関連論文リスト
- NeuSDFusion: A Spatial-Aware Generative Model for 3D Shape Completion, Reconstruction, and Generation [52.772319840580074]
3D形状生成は、特定の条件や制約に固執する革新的な3Dコンテンツを作成することを目的としている。
既存の方法は、しばしば3Dの形状を局所化されたコンポーネントの列に分解し、各要素を分離して扱う。
本研究では2次元平面表現を利用した空間認識型3次元形状生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-27T04:09:34Z) - Spectral Meets Spatial: Harmonising 3D Shape Matching and Interpolation [50.376243444909136]
本稿では,3次元形状の対応と形状の両面を統一的に予測する枠組みを提案する。
我々は、スペクトル領域と空間領域の両方の形状を地図化するために、奥行き関数写像フレームワークと古典的な曲面変形モデルを組み合わせる。
論文 参考訳(メタデータ) (2024-02-29T07:26:23Z) - Michelangelo: Conditional 3D Shape Generation based on Shape-Image-Text
Aligned Latent Representation [47.945556996219295]
本稿では2次元画像やテキストに基づいて3次元形状を生成する新しいアライメント前世代手法を提案する。
我々のフレームワークは、形状-画像-テキスト対応変分自動エンコーダ(SITA-VAE)と条件付き形状遅延拡散モデル(ASLDM)の2つのモデルで構成されている。
論文 参考訳(メタデータ) (2023-06-29T17:17:57Z) - Learning to Generate 3D Shapes from a Single Example [28.707149807472685]
本稿では,入力形状の幾何学的特徴を空間的範囲にわたって捉えるために,マルチスケールのGANモデルを提案する。
我々は、外部の監督や手動のアノテーションを必要とせずに、基準形状のボクセルピラミッドで生成モデルを訓練する。
結果の形状は異なるスケールで変化を示し、同時に基準形状のグローバルな構造を保持する。
論文 参考訳(メタデータ) (2022-08-05T01:05:32Z) - Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images [82.32776379815712]
カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-21T03:42:31Z) - Pop-Out Motion: 3D-Aware Image Deformation via Learning the Shape
Laplacian [58.704089101826774]
形状分類と変形型に最小限の制約を課した3次元画像変形法を提案する。
点雲として表される3次元再構成の基底体積のラプラシアン形状を予測するために,教師付き学習に基づくアプローチを採用する。
実験では,2次元キャラクタと人間の衣料画像の変形実験を行った。
論文 参考訳(メタデータ) (2022-03-29T04:57:18Z) - Disentangling Geometric Deformation Spaces in Generative Latent Shape
Models [5.582957809895198]
3Dオブジェクトの完全な表現には、解釈可能な方法で変形の空間を特徴づける必要がある。
本研究では,物体形状の空間を剛性方向,非剛性ポーズ,内在的な形状に分解する3次元形状の不整合の事前生成モデルを改善する。
得られたモデルは生の3D形状からトレーニングできる。
論文 参考訳(メタデータ) (2021-02-27T06:54:31Z) - Deformed Implicit Field: Modeling 3D Shapes with Learned Dense
Correspondence [30.849927968528238]
本稿では,カテゴリの3次元形状をモデル化するための新しいDeformed Implicit Field表現を提案する。
我々のニューラルネットワーク、DIF-Netは、カテゴリに属する3Dオブジェクトの形状潜在空間とこれらのフィールドを共同で学習する。
実験により、DIF-Netは高忠実度3次元形状を生成するだけでなく、異なる形状の高品位密度対応を生成することが示された。
論文 参考訳(メタデータ) (2020-11-27T10:45:26Z) - ShapeFlow: Learnable Deformations Among 3D Shapes [28.854946339507123]
本研究では,3次元形状のクラス全体の変形空間を学習するためのフローベースモデルを提案する。
ShapeFlowは、形状トポロジーに非依存なマルチテンプレートの変形空間を学習できるが、微妙な幾何学的詳細を保存できる。
論文 参考訳(メタデータ) (2020-06-14T19:03:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。