論文の概要: DeepMetaHandles: Learning Deformation Meta-Handles of 3D Meshes with
Biharmonic Coordinates
- arxiv url: http://arxiv.org/abs/2102.09105v1
- Date: Thu, 18 Feb 2021 01:31:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-19 16:41:47.661748
- Title: DeepMetaHandles: Learning Deformation Meta-Handles of 3D Meshes with
Biharmonic Coordinates
- Title(参考訳): DeepMetaHandles:Biharmonic Coordinatesを用いた3Dメッシュの変形メタハンドルの学習
- Authors: Minghua Liu, Minhyuk Sung, Radomir Mech, Hao Su
- Abstract要約: DeepMetaHandlesはメッシュ変形に基づく3D条件生成モデルである。
私たちは、与えられたハンドルの組み合わせとして表現される各形状のメタハンドルのセットを学びます。
新しい変形は、特定の範囲のメタハンドルの係数をサンプリングすることによって生成することができる。
- 参考スコア(独自算出の注目度): 31.317344570058058
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose DeepMetaHandles, a 3D conditional generative model based on mesh
deformation. Given a collection of 3D meshes of a category and their
deformation handles (control points), our method learns a set of meta-handles
for each shape, which are represented as combinations of the given handles. The
disentangled meta-handles factorize all the plausible deformations of the
shape, while each of them corresponds to an intuitive deformation. A new
deformation can then be generated by sampling the coefficients of the
meta-handles in a specific range. We employ biharmonic coordinates as the
deformation function, which can smoothly propagate the control points'
translations to the entire mesh. To avoid learning zero deformation as
meta-handles, we incorporate a target-fitting module which deforms the input
mesh to match a random target. To enhance deformations' plausibility, we employ
a soft-rasterizer-based discriminator that projects the meshes to a 2D space.
Our experiments demonstrate the superiority of the generated deformations as
well as the interpretability and consistency of the learned meta-handles.
- Abstract(参考訳): メッシュ変形に基づく3次元条件生成モデルであるDeepMetaHandlesを提案する。
カテゴリの3次元メッシュの集合とその変形ハンドル(制御点)が与えられた場合,本手法は与えられたハンドルの組み合わせとして表現される,各形状のメタハンドルの集合を学習する。
切り離されたメタハンドルは、形状のすべての可塑性変形を分解し、それぞれが直感的な変形に対応する。
新しい変形は、特定の範囲のメタハンドルの係数をサンプリングすることによって生成することができる。
制御点の翻訳をメッシュ全体にスムーズに伝達できる変形機能として、バイハーモニック座標を採用しています。
メタハンドルとしてゼロ変形を学習することを避けるため、入力メッシュを変形してランダムなターゲットにマッチするターゲットフィッティングモジュールを組み込んだ。
変形の可視性を高めるために,メッシュを2次元空間に投影するソフトラスタライザベースの判別器を用いる。
実験では, 生成した変形の優越性, 学習したメタハンドルの解釈性と一貫性を実証した。
関連論文リスト
- Learning SO(3)-Invariant Semantic Correspondence via Local Shape Transform [62.27337227010514]
RISTと呼ばれる局所形状変換を用いた自己教師型回転不変3次元対応学習システムを提案する。
RISTは、挑戦的なクラス内変分と任意の向きの下でも、形状間の密接な対応を確立することを学ぶ。
RISTは、任意の回転点雲対に与えられる3D部分ラベル転送とセマンティックキーポイント転送の最先端性能を示す。
論文 参考訳(メタデータ) (2024-04-17T08:09:25Z) - DragD3D: Realistic Mesh Editing with Rigidity Control Driven by 2D Diffusion Priors [10.355568895429588]
ダイレクトメッシュの編集と変形は、幾何学的モデリングとアニメーションパイプラインの重要なコンポーネントである。
正規化器は、オブジェクトのグローバルなコンテキストとセマンティクスを意識していない。
我々の変形を制御して,グローバルな文脈を意識した現実的な形状の変形を生成できることが示される。
論文 参考訳(メタデータ) (2023-10-06T19:55:40Z) - TextDeformer: Geometry Manipulation using Text Guidance [37.02412892926677]
本稿では,テキストプロンプトのみで案内される入力三角形メッシュの変形を生成する手法を提案する。
私たちのフレームワークは、CLIPやDINOといった強力なトレーニング済み画像エンコーダとジオメトリを接続するために、微分可能なレンダリングに依存しています。
この制限を克服するために、我々はジャコビアンを通してメッシュの変形を表現し、グローバルでスムーズな方法で変形を更新する。
論文 参考訳(メタデータ) (2023-04-26T07:38:41Z) - Neural Shape Deformation Priors [14.14047635248036]
本稿では,新しい形状操作法であるニューラル・シェイプ・フォーメーション・プレファレンスを提案する。
形状の幾何学的性質に基づいて変形挙動を学習する。
本手法は, 難解な変形に対して適用可能であり, 未知の変形に対して良好に一般化できる。
論文 参考訳(メタデータ) (2022-10-11T17:03:25Z) - Pop-Out Motion: 3D-Aware Image Deformation via Learning the Shape
Laplacian [58.704089101826774]
形状分類と変形型に最小限の制約を課した3次元画像変形法を提案する。
点雲として表される3次元再構成の基底体積のラプラシアン形状を予測するために,教師付き学習に基づくアプローチを採用する。
実験では,2次元キャラクタと人間の衣料画像の変形実験を行った。
論文 参考訳(メタデータ) (2022-03-29T04:57:18Z) - NeuroMorph: Unsupervised Shape Interpolation and Correspondence in One
Go [109.88509362837475]
入力2つの3次元形状を考慮したニューラルネットワークアーキテクチャであるNeuroMorphを提案する。
NeuroMorphはそれらの間のスムーズかつポイントツーポイント対応を生成する。
異なる対象カテゴリの非等尺性ペアを含む、さまざまな入力形状に対してうまく機能する。
論文 参考訳(メタデータ) (2021-06-17T12:25:44Z) - Learning Feature Aggregation for Deep 3D Morphable Models [57.1266963015401]
階層レベルで機能集約を向上するためのマッピング行列を学習するための注意に基づくモジュールを提案する。
実験の結果,マッピング行列のエンドツーエンドトレーニングにより,様々な3次元形状データセットの最先端結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-05-05T16:41:00Z) - SNARF: Differentiable Forward Skinning for Animating Non-Rigid Neural
Implicit Shapes [117.76767853430243]
SNARFは多角形メッシュに対する線形ブレンドスキンの利点とニューラル暗黙表面の利点を組み合わせたものである。
反復ルート探索を用いて任意の変形点のすべての正準対応を探索するフォワードスキンモデルを提案する。
最先端のニューラルネットワークの暗黙的表現と比較すると,このアプローチは,精度を維持しつつ,未認識のポーズを一般化する。
論文 参考訳(メタデータ) (2021-04-08T17:54:59Z) - Dense Non-Rigid Structure from Motion: A Manifold Viewpoint [162.88686222340962]
Non-Rigid Structure-from-Motion (NRSfM) 問題は、複数のフレームにまたがる2次元特徴対応から変形物体の3次元形状を復元することを目的としている。
提案手法は,ノイズに対する精度,スケーラビリティ,堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2020-06-15T09:15:54Z) - Learning Generative Models of Shape Handles [43.41382075567803]
ハンドセットとして3次元形状を合成する生成モデルを提案する。
我々のモデルは、様々な濃度と異なる種類のハンドルを持つハンドセットを生成することができる。
得られた形状表現は直感的であり,従来の最先端技術よりも優れた品質が得られることを示す。
論文 参考訳(メタデータ) (2020-04-06T22:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。