論文の概要: Proc3D: Procedural 3D Generation and Parametric Editing of 3D Shapes with Large Language Models
- arxiv url: http://arxiv.org/abs/2601.12234v1
- Date: Sun, 18 Jan 2026 03:08:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.516606
- Title: Proc3D: Procedural 3D Generation and Parametric Editing of 3D Shapes with Large Language Models
- Title(参考訳): Proc3D:大規模言語モデルを用いた3次元形状の手続き的3次元生成とパラメトリック編集
- Authors: Fadlullah Raji, Stefano Petrangeli, Matheus Gadelha, Yu Shen, Uttaran Bhattacharya, Gang Wu,
- Abstract要約: Proc3Dは、リアルタイムな修正を可能にしながら編集可能な3Dモデルを生成するように設計されたシステムである。
Proc3Dは3Dモデルのグラフ表現である手続きコンパクトグラフ(PCG)を導入している。
In-context Learning (ICL) を用いた GPT-4o と微調整 LLAMA-3 モデルを用いて, Proc3D の機能を示す。
- 参考スコア(独自算出の注目度): 21.349049326631867
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating 3D models has traditionally been a complex task requiring specialized expertise. While recent advances in generative AI have sought to automate this process, existing methods produce non-editable representation, such as meshes or point clouds, limiting their adaptability for iterative design. In this paper, we introduce Proc3D, a system designed to generate editable 3D models while enabling real-time modifications. At its core, Proc3D introduces procedural compact graph (PCG), a graph representation of 3D models, that encodes the algorithmic rules and structures necessary for generating the model. This representation exposes key parameters, allowing intuitive manual adjustments via sliders and checkboxes, as well as real-time, automated modifications through natural language prompts using Large Language Models (LLMs). We demonstrate Proc3D's capabilities using two generative approaches: GPT-4o with in-context learning (ICL) and a fine-tuned LLAMA-3 model. Experimental results show that Proc3D outperforms existing methods in editing efficiency, achieving more than 400x speedup over conventional approaches that require full regeneration for each modification. Additionally, Proc3D improves ULIP scores by 28%, a metric that evaluates the alignment between generated 3D models and text prompts. By enabling text-aligned 3D model generation along with precise, real-time parametric edits, Proc3D facilitates highly accurate text-based image editing applications.
- Abstract(参考訳): 3Dモデルの生成は、伝統的に専門的な専門知識を必要とする複雑な作業であった。
生成AIの最近の進歩は、このプロセスの自動化を目指しているが、既存の方法はメッシュやポイントクラウドのような非編集可能な表現を生成し、反復的設計への適応性を制限している。
本稿では,リアルタイムに編集可能な3Dモデルを生成するシステムであるProc3Dを紹介する。
Proc3Dは3Dモデルのグラフ表現である手続きコンパクトグラフ(PCG)を導入し、モデル生成に必要なアルゴリズムルールと構造を符号化する。
この表現はキーパラメータを公開し、スライダとチェックボックスによる直感的な手動調整と、Large Language Models (LLMs)を使用した自然言語プロンプトによるリアルタイムな自動修正を可能にする。
In-context Learning (ICL) を用いた GPT-4o と微調整 LLAMA-3 モデルを用いて, Proc3D の機能を示す。
実験結果から,Proc3Dの編集効率は従来の方法に比べて400倍以上向上し,各修正に完全再生を必要とする従来の手法よりも向上した。
さらに、Proc3Dは、生成された3Dモデルとテキストプロンプトのアライメントを評価するメトリックであるULIPスコアを28%改善する。
テキスト整列型3Dモデル生成と高精度でリアルタイムなパラメトリック編集により、Proc3Dは高精度なテキストベースの画像編集アプリケーションを容易にする。
関連論文リスト
- 3D-LATTE: Latent Space 3D Editing from Textual Instructions [64.77718887666312]
本研究では,ネイティブな3次元拡散モデルの潜在空間内で動作する学習自由な編集手法を提案する。
生成元からの3Dアテンションマップとソースオブジェクトをブレンドすることで、編集合成をガイドする。
論文 参考訳(メタデータ) (2025-08-29T22:51:59Z) - CMD: Controllable Multiview Diffusion for 3D Editing and Progressive Generation [58.46364872103992]
入力画像から3Dモデルを生成するとともに、3Dモデルの各コンポーネントのフレキシブルな局所的編集を可能にするCMDと呼ばれる新しい手法を提案する。
CMDでは、3D生成を条件付き多視点拡散モデルとして定式化し、既存のまたは既知の部分を条件として取り、編集または追加されたコンポーネントを生成する。
論文 参考訳(メタデータ) (2025-05-11T14:54:26Z) - Instructive3D: Editing Large Reconstruction Models with Text Instructions [2.9575146209034853]
Instructive3Dは、3Dオブジェクトの生成と微細な編集を1つのモデルに統合する新しいLEMベースのモデルである。
Instructive3Dは編集プロンプトによって指定された特性を持つ優れた3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2025-01-08T09:28:25Z) - OneTo3D: One Image to Re-editable Dynamic 3D Model and Video Generation [0.0]
編集可能なダイナミック3Dモデルとビデオ生成のための1つの画像は、単一の画像の研究領域を3D表現や画像の3D再構成に変換する新しい方向と変化である。
編集可能な3Dモデルを生成し,対象とする連続時間無制限の3Dビデオを生成するために,単一の画像を使用する方法と理論であるOneTo3Dを提案する。
論文 参考訳(メタデータ) (2024-05-10T15:44:11Z) - LATTE3D: Large-scale Amortized Text-To-Enhanced3D Synthesis [76.43669909525488]
LATTE3Dは400msで3Dオブジェクトを生成し、高速なテストタイム最適化でさらに拡張することができる。
LATTE3Dを導入し、これらの制限に対処し、より大きなプロンプトセット上で高速で高品質な生成を実現する。
論文 参考訳(メタデータ) (2024-03-22T17:59:37Z) - 3D-GPT: Procedural 3D Modeling with Large Language Models [47.72968643115063]
命令駆動3Dモデリングのための大規模言語モデル(LLM)を利用するフレームワークである3D-GPTを紹介する。
3D-GPTは、3Dモデリングタスクをアクセス可能なセグメントに分割し、各タスクにアプエージェントを割り当てる。
我々の実証調査では、3D-GPTが解釈し、指示を実行し、信頼性の高い結果を提供するだけでなく、人間デザイナーと効果的に協力することを確認した。
論文 参考訳(メタデータ) (2023-10-19T17:41:48Z) - GET3D--: Learning GET3D from Unconstrained Image Collections [27.470617383305726]
本研究では2次元画像から直接テクスチャ化された3次元形状を生成できるGET3D-を提案する。
GET3D--は3D形状のジェネレータと、カメラ上の6D外部変化をキャプチャする学習可能なカメラサンプリング器を備える。
論文 参考訳(メタデータ) (2023-07-27T15:00:54Z) - Training and Tuning Generative Neural Radiance Fields for Attribute-Conditional 3D-Aware Face Generation [66.21121745446345]
本稿では,特定の属性ラベルを入力として統合した条件付きGNeRFモデルを提案する。
提案手法は, 事前学習した3次元顔モデルに基づいており, 条件付き正規化フローモジュールをトレーニングするためのTraining as Init and fidelity for Tuning (TRIOT) 方式を提案する。
本実験は,ビューの整合性を高めた高品質な編集を行う能力を示すとともに,本モデルの有効性を実証するものである。
論文 参考訳(メタデータ) (2022-08-26T10:05:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。