論文の概要: 3D Generative Model Latent Disentanglement via Local Eigenprojection
- arxiv url: http://arxiv.org/abs/2302.12798v1
- Date: Fri, 24 Feb 2023 18:19:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 12:43:42.917562
- Title: 3D Generative Model Latent Disentanglement via Local Eigenprojection
- Title(参考訳): 局所固有投影による3次元生成モデル潜時歪み
- Authors: Simone Foti, Bongjin Koo, Danail Stoyanov, Matthew J. Clarkson
- Abstract要約: 本稿では,3次元頭部および体メッシュの異なるニューラルネットワークに基づく生成モデルに対するスペクトル幾何学に基づく新しい損失関数を提案する。
実験結果から,我々の局所固有射影不整形(LED)モデルでは,最先端技術に対する不整形が改善されていることがわかった。
- 参考スコア(独自算出の注目度): 13.713373496487012
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Designing realistic digital humans is extremely complex. Most data-driven
generative models used to simplify the creation of their underlying geometric
shape do not offer control over the generation of local shape attributes. In
this paper, we overcome this limitation by introducing a novel loss function
grounded in spectral geometry and applicable to different neural-network-based
generative models of 3D head and body meshes. Encouraging the latent variables
of mesh variational autoencoders (VAEs) or generative adversarial networks
(GANs) to follow the local eigenprojections of identity attributes, we improve
latent disentanglement and properly decouple the attribute creation.
Experimental results show that our local eigenprojection disentangled (LED)
models not only offer improved disentanglement with respect to the
state-of-the-art, but also maintain good generation capabilities with training
times comparable to the vanilla implementations of the models.
- Abstract(参考訳): リアルなデジタル人間のデザインは非常に複雑です。
多くのデータ駆動生成モデルは、基礎となる幾何学的形状の生成を単純化するために使われ、局所的な形状特性の生成を制御できない。
本稿では,スペクトル幾何学に基づく新たな損失関数を導入し,ニューラルネットワークに基づく3次元頭部・ボディメッシュ生成モデルに適用することで,この限界を克服する。
メッシュ変分オートエンコーダ(vaes)やgans(generative adversarial network)の潜在変数にアイデンティティ属性の局所固有プロジェクションに従うように促し、潜在性不連続を改善し、属性生成を適切に分離する。
実験結果から,我々の局所固有射影不整合(LED)モデルは,最先端技術に対する不整合性を向上するだけでなく,モデルのバニラ実装に匹敵する訓練時間で優れた生成能力を維持できることが示された。
関連論文リスト
- Pushing Auto-regressive Models for 3D Shape Generation at Capacity and
Scalability [121.44324465222498]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - Self-supervised Learning for Enhancing Geometrical Modeling in 3D-Aware
Generative Adversarial Network [42.16520614686877]
3D-GANは、メッシュの不完全性や穴などの3D幾何学的モデリングにおいて、アーティファクトを示す。
これらの欠点は、主にアノテーション付き3Dデータの可用性が制限されているためである。
本稿では,任意の3D-GANの補助的損失を補うセルフ・スーパーバイザード・ラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-12-19T04:55:33Z) - Learning Modulated Transformation in GANs [69.95217723100413]
生成逆数ネットワーク(GAN)のジェネレータに、変調変換モジュール(Modulated transformation module, MTM)と呼ばれるプラグアンドプレイモジュールを装備する。
MTMは、可変位置で畳み込み操作を適用可能な潜在符号の制御下で空間オフセットを予測する。
挑戦的なTaiChiデータセット上での人為的な生成に向けて、StyleGAN3のFIDを21.36から13.60に改善し、変調幾何変換の学習の有効性を実証した。
論文 参考訳(メタデータ) (2023-08-29T17:51:22Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - Learning Versatile 3D Shape Generation with Improved AR Models [91.87115744375052]
自己回帰(AR)モデルはグリッド空間の関節分布をモデル化することにより2次元画像生成において印象的な結果を得た。
本稿では3次元形状生成のための改良された自己回帰モデル(ImAM)を提案する。
論文 参考訳(メタデータ) (2023-03-26T12:03:18Z) - NeRF-GAN Distillation for Efficient 3D-Aware Generation with
Convolutions [97.27105725738016]
GAN(Generative Adversarial Networks)のようなニューラルラジアンスフィールド(NeRF)と生成モデルの統合は、単一ビュー画像から3D認識生成を変換した。
提案手法は,ポーズ条件付き畳み込みネットワークにおいて,事前学習したNeRF-GANの有界遅延空間を再利用し,基礎となる3次元表現に対応する3D一貫性画像を直接生成する手法である。
論文 参考訳(メタデータ) (2023-03-22T18:59:48Z) - Training and Tuning Generative Neural Radiance Fields for
Attribute-Conditional 3D-Aware Face Generation [69.53142666853502]
GNeRF(Generative Neural Radiance Fields)をベースとした3次元GANは、高品質な画像を生成する際、顕著な能力を示した。
本稿では, 特定の属性ラベルを入力として組み込んだ条件付きGNeRFモデルを提案する。
論文 参考訳(メタデータ) (2022-08-26T10:05:39Z) - Discrete Point Flow Networks for Efficient Point Cloud Generation [36.03093265136374]
生成モデルは3次元形状とその統計的バリエーションをモデル化するのに有効であることが証明されている。
任意の大きさの3次元点雲を生成するために,フローの正規化に基づく潜在変数モデルを導入する。
単一ビュー形状再構成では、最先端のボクセル、ポイントクラウド、メッシュベースの手法と同等の結果が得られる。
論文 参考訳(メタデータ) (2020-07-20T14:48:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。