論文の概要: DI-PCG: Diffusion-based Efficient Inverse Procedural Content Generation for High-quality 3D Asset Creation
- arxiv url: http://arxiv.org/abs/2412.15200v1
- Date: Thu, 19 Dec 2024 18:58:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:32:37.138800
- Title: DI-PCG: Diffusion-based Efficient Inverse Procedural Content Generation for High-quality 3D Asset Creation
- Title(参考訳): DI-PCG:高品質な3次元アセット生成のための拡散に基づく効率的な逆手続き型コンテンツ生成
- Authors: Wang Zhao, Yan-Pei Cao, Jiale Xu, Yuejiang Dong, Ying Shan,
- Abstract要約: Inverse Procedural Content Generationは入力条件下で最適なパラメータを自動的に見つけることを目的としている。
一般画像からの逆PCGの新規かつ効率的な方法であるDI-PCGを提案する。
7.6Mのネットワークパラメータとトレーニングに30GPU時間しか必要とせず、パラメータを正確に回復する際の優れたパフォーマンスを示している。
- 参考スコア(独自算出の注目度): 39.08891847512135
- License:
- Abstract: Procedural Content Generation (PCG) is powerful in creating high-quality 3D contents, yet controlling it to produce desired shapes is difficult and often requires extensive parameter tuning. Inverse Procedural Content Generation aims to automatically find the best parameters under the input condition. However, existing sampling-based and neural network-based methods still suffer from numerous sample iterations or limited controllability. In this work, we present DI-PCG, a novel and efficient method for Inverse PCG from general image conditions. At its core is a lightweight diffusion transformer model, where PCG parameters are directly treated as the denoising target and the observed images as conditions to control parameter generation. DI-PCG is efficient and effective. With only 7.6M network parameters and 30 GPU hours to train, it demonstrates superior performance in recovering parameters accurately, and generalizing well to in-the-wild images. Quantitative and qualitative experiment results validate the effectiveness of DI-PCG in inverse PCG and image-to-3D generation tasks. DI-PCG offers a promising approach for efficient inverse PCG and represents a valuable exploration step towards a 3D generation path that models how to construct a 3D asset using parametric models.
- Abstract(参考訳): プロシージャコンテンツ生成(PCG)は高品質な3Dコンテンツを作成するのに強力だが、望ましい形状を作るためにそれを制御することは困難であり、広範囲なパラメータチューニングを必要とすることが多い。
Inverse Procedural Content Generationは入力条件下で最適なパラメータを自動的に見つけることを目的としている。
しかし、既存のサンプリングベースとニューラルネットワークベースの方法は、まだ多くのサンプルイテレーションや限定的な制御性に悩まされている。
本研究では,一般画像からの逆PCGの新規かつ効率的な手法であるDI-PCGを提案する。
中心となるのが軽量拡散変圧器モデルで、PCGパラメータをデノナイズターゲットとして直接扱い、観察画像をパラメータ生成を制御する条件として扱う。
DI-PCGは効率的かつ効果的である。
トレーニング対象のネットワークパラメータは7.6Mと30GPU時間に過ぎず、パラメータを正確に回復する上で優れたパフォーマンスを示し、Wild内のイメージによく対応している。
定量的および定性的な実験結果は,逆PCGと画像から3D生成タスクにおけるDI-PCGの有効性を検証した。
DI-PCGは、効率的な逆PCGのための有望なアプローチを提供し、パラメトリックモデルを用いて3Dアセットを構築する方法をモデル化する3D生成パスへの貴重な探索ステップを示す。
関連論文リスト
- Data-Driven, Parameterized Reduced-order Models for Predicting Distortion in Metal 3D Printing [39.58317527488534]
本研究では, レーザ粉層融合(LPBF)における歪み予測のためのデータ駆動型パラメータ化低次モデル(ROM)を提案する。
本稿では,正規直交分解(POD)とガウスプロセス回帰(GPR)を組み合わせたROMフレームワークを提案し,その性能をディープラーニングに基づくパラメータ化グラフ畳み込みオートエンコーダ(GCA)と比較する。
POD-GPRモデルは高い精度を示し、pm0.001mm$以内の歪みを予測し、約1800倍の計算速度を提供する。
論文 参考訳(メタデータ) (2024-12-05T19:47:25Z) - Conditional LoRA Parameter Generation [18.34892473337235]
制御可能な高性能パラメータ生成の実現可能性を示す新しいアプローチであるCOND P-DIFFを提案する。
コンピュータビジョンと自然言語処理の両領域における実験結果から, COND P-DIFF が与えられたタスクに条件付き高性能なパラメータを生成できることが一貫して示されている。
我々の研究は、条件駆動パラメータ生成のさらなる探求の道を開き、ニューラルネットワークのタスク固有の適応のための有望な方向を提供する。
論文 参考訳(メタデータ) (2024-08-02T17:43:34Z) - VividDreamer: Towards High-Fidelity and Efficient Text-to-3D Generation [69.68568248073747]
拡散に基づく3次元生成タスクにおいて, ポーズ依存型連続蒸留サンプリング (PCDS) を提案する。
PCDSは拡散軌道内でポーズ依存整合関数を構築し、最小サンプリングステップで真の勾配を近似することができる。
そこで我々は,まず1ステップのPCDSを用いて3Dオブジェクトの基本構造を作成し,さらに徐々にPCDSのステップを拡大して細かな細部を生成する,粗大な最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:21:52Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - Revising Densification in Gaussian Splatting [23.037676471903215]
本稿では,3DGSにおける密度制御のための画素エラー駆動型定式化について述べる。
我々のアプローチは、メソッドの効率を犠牲にすることなく、様々なベンチマークシーンで一貫した品質改善をもたらす。
論文 参考訳(メタデータ) (2024-04-09T08:20:37Z) - GVP: Generative Volumetric Primitives [76.95231302205235]
本稿では,512解像度画像をリアルタイムにサンプリング・レンダリングできる最初の純3次元生成モデルである生成ボリュームプリミティブ(GVP)を提案する。
GVPは、複数のプリミティブとその空間情報を共同でモデル化し、どちらも2D畳み込みネットワークを介して効率的に生成することができる。
いくつかのデータセットの実験は、最先端技術よりも優れた効率性とGVPの3次元一貫性を示す。
論文 参考訳(メタデータ) (2023-03-31T16:50:23Z) - NeRF-GAN Distillation for Efficient 3D-Aware Generation with
Convolutions [97.27105725738016]
GAN(Generative Adversarial Networks)のようなニューラルラジアンスフィールド(NeRF)と生成モデルの統合は、単一ビュー画像から3D認識生成を変換した。
提案手法は,ポーズ条件付き畳み込みネットワークにおいて,事前学習したNeRF-GANの有界遅延空間を再利用し,基礎となる3次元表現に対応する3D一貫性画像を直接生成する手法である。
論文 参考訳(メタデータ) (2023-03-22T18:59:48Z) - Training and Tuning Generative Neural Radiance Fields for Attribute-Conditional 3D-Aware Face Generation [66.21121745446345]
本稿では,特定の属性ラベルを入力として統合した条件付きGNeRFモデルを提案する。
提案手法は, 事前学習した3次元顔モデルに基づいており, 条件付き正規化フローモジュールをトレーニングするためのTraining as Init and fidelity for Tuning (TRIOT) 方式を提案する。
本実験は,ビューの整合性を高めた高品質な編集を行う能力を示すとともに,本モデルの有効性を実証するものである。
論文 参考訳(メタデータ) (2022-08-26T10:05:39Z) - Point Cloud Generation with Continuous Conditioning [2.9238500578557303]
本稿では,連続パラメータを条件とした3次元点雲形状を生成するGAN(Generative Adversarial Network)を提案する。
模範的なアプリケーションでは、これを生成プロセスのガイドとして使用し、カスタマイズ可能な形状の3Dオブジェクトを作成します。
論文 参考訳(メタデータ) (2022-02-17T09:05:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。