論文の概要: ProcGen3D: Learning Neural Procedural Graph Representations for Image-to-3D Reconstruction
- arxiv url: http://arxiv.org/abs/2511.07142v1
- Date: Mon, 10 Nov 2025 14:23:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.301868
- Title: ProcGen3D: Learning Neural Procedural Graph Representations for Image-to-3D Reconstruction
- Title(参考訳): ProcGen3D:画像から3Dへの再構成のためのニューラルプロシージャグラフ表現の学習
- Authors: Xinyi Zhang, Daoyi Gao, Naiqi Li, Angela Dai,
- Abstract要約: ProcGen3Dは、3Dオブジェクトのプロシージャグラフ抽象化を生成することによって、3Dコンテンツ作成のための新しいアプローチである。
画像に基づく3次元再構成のためのプロシージャジェネレータの景観を近似することを学ぶ。
本手法は, プロシージャジェネレータで合成可能な多種多様なオブジェクトに適用可能である。
- 参考スコア(独自算出の注目度): 44.4479258588666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce ProcGen3D, a new approach for 3D content creation by generating procedural graph abstractions of 3D objects, which can then be decoded into rich, complex 3D assets. Inspired by the prevalent use of procedural generators in production 3D applications, we propose a sequentialized, graph-based procedural graph representation for 3D assets. We use this to learn to approximate the landscape of a procedural generator for image-based 3D reconstruction. We employ edge-based tokenization to encode the procedural graphs, and train a transformer prior to predict the next token conditioned on an input RGB image. Crucially, to enable better alignment of our generated outputs to an input image, we incorporate Monte Carlo Tree Search (MCTS) guided sampling into our generation process, steering output procedural graphs towards more image-faithful reconstructions. Our approach is applicable across a variety of objects that can be synthesized with procedural generators. Extensive experiments on cacti, trees, and bridges show that our neural procedural graph generation outperforms both state-of-the-art generative 3D methods and domain-specific modeling techniques. Furthermore, this enables improved generalization on real-world input images, despite training only on synthetic data.
- Abstract(参考訳): ProcGen3Dは、3Dオブジェクトのプロシージャグラフの抽象化を生成して、リッチで複雑な3Dアセットにデコードできる新しい3Dコンテンツ作成手法である。
生産3Dアプリケーションにおけるプロシージャジェネレータの利用に着想を得て,3Dアセットのためのシーケンシャルなグラフベースのプロシージャグラフ表現を提案する。
我々はこれを用いて、画像に基づく3次元再構成のための手続き生成装置の景観を近似する。
我々はエッジベースのトークン化を用いて手続きグラフを符号化し、入力されたRGB画像に条件付けされた次のトークンを予測する前にトランスフォーマーを訓練する。
重要なことは、生成した出力を入力画像によりよくアライメントできるようにするため、モンテカルロ木探索(MCTS)誘導サンプリングを生成プロセスに組み込み、より画像に忠実な再構成に向けて出力プロシージャグラフを操る。
本手法は, プロシージャジェネレータで合成可能な多種多様なオブジェクトに適用可能である。
cacti、木、ブリッジに関する大規模な実験により、私たちの神経手続きグラフ生成は最先端の3D生成法とドメイン固有のモデリング技術の両方に優れています。
さらに、合成データのみをトレーニングしながら、現実世界の入力画像の一般化を改善することができる。
関連論文リスト
- EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - F3D-Gaus: Feed-forward 3D-aware Generation on ImageNet with Cycle-Aggregative Gaussian Splatting [35.625593119642424]
本稿では,モノケプラーデータセットから3次元認識を一般化する問題に取り組む。
画素整列型ガウススプラッティングに基づく新しいフィードフォワードパイプラインを提案する。
また,学習した3次元表現において,クロスビューの一貫性を強制する自己教師付きサイクル集約的制約を導入する。
論文 参考訳(メタデータ) (2025-01-12T04:44:44Z) - Magic-Boost: Boost 3D Generation with Multi-View Conditioned Diffusion [101.15628083270224]
本稿では,高忠実度新鮮映像を合成する多視点拡散モデルを提案する。
次に,得られた粗い結果を精査するための厳密なガイダンスを提供するために,新しい反復更新戦略を導入する。
実験の結果、Magic-Boostは粗いインプットを大幅に強化し、リッチな幾何学的およびテクスチュラルな詳細を持つ高品質な3Dアセットを生成する。
論文 参考訳(メタデータ) (2024-04-09T16:20:03Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z) - IM-3D: Iterative Multiview Diffusion and Reconstruction for High-Quality
3D Generation [96.32684334038278]
本稿では,テキスト・ツー・3Dモデルの設計空間について検討する。
画像生成装置の代わりに映像を考慮し、マルチビュー生成を大幅に改善する。
IM-3Dは,2次元ジェネレータネットワーク10-100xの評価回数を削減する。
論文 参考訳(メタデータ) (2024-02-13T18:59:51Z) - Triplane Meets Gaussian Splatting: Fast and Generalizable Single-View 3D
Reconstruction with Transformers [37.14235383028582]
本稿では,フィードフォワード推論を用いて,単一画像から3次元モデルを効率よく生成する,一視点再構成のための新しい手法を提案する。
提案手法では,2つのトランスフォーマーネットワーク,すなわちポイントデコーダとトリプレーンデコーダを用いて,ハイブリッドトリプレーン・ガウス中間表現を用いて3次元オブジェクトを再構成する。
論文 参考訳(メタデータ) (2023-12-14T17:18:34Z) - ConRad: Image Constrained Radiance Fields for 3D Generation from a
Single Image [15.997195076224312]
単一のRGB画像から3Dオブジェクトを再構成する新しい手法を提案する。
提案手法は,最新の画像生成モデルを用いて隠れた3次元構造を推定する。
我々の3D再構成は入力に忠実なままであり、より一貫性のある3Dモデルを生成することを示す。
論文 参考訳(メタデータ) (2023-11-09T09:17:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。