論文の概要: SpaceControl: Introducing Test-Time Spatial Control to 3D Generative Modeling
- arxiv url: http://arxiv.org/abs/2512.05343v1
- Date: Fri, 05 Dec 2025 00:54:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.857353
- Title: SpaceControl: Introducing Test-Time Spatial Control to 3D Generative Modeling
- Title(参考訳): SpaceControl:3次元生成モデルへのテスト時間空間制御の導入
- Authors: Elisabetta Fedele, Francis Engelmann, Ian Huang, Or Litany, Marc Pollefeys, Leonidas Guibas,
- Abstract要約: 本研究では,3次元生成の空間的制御を明示する訓練不要なテストタイム手法であるSpaceControlを紹介する。
SpaceControlは、追加のトレーニングを必要とせずに、現代的な事前訓練された生成モデルとシームレスに統合する。
テクスチャ化された3Dアセットへの直接変換を行うために,スーパークワッドリックのオンライン編集を可能にする対話型ユーザインタフェースを提案する。
- 参考スコア(独自算出の注目度): 62.89824987879374
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative methods for 3D assets have recently achieved remarkable progress, yet providing intuitive and precise control over the object geometry remains a key challenge. Existing approaches predominantly rely on text or image prompts, which often fall short in geometric specificity: language can be ambiguous, and images are cumbersome to edit. In this work, we introduce SpaceControl, a training-free test-time method for explicit spatial control of 3D generation. Our approach accepts a wide range of geometric inputs, from coarse primitives to detailed meshes, and integrates seamlessly with modern pre-trained generative models without requiring any additional training. A controllable parameter lets users trade off between geometric fidelity and output realism. Extensive quantitative evaluation and user studies demonstrate that SpaceControl outperforms both training-based and optimization-based baselines in geometric faithfulness while preserving high visual quality. Finally, we present an interactive user interface that enables online editing of superquadrics for direct conversion into textured 3D assets, facilitating practical deployment in creative workflows. Find our project page at https://spacecontrol3d.github.io/
- Abstract(参考訳): 3Dアセットの生成手法は近年顕著な進歩を遂げているが、オブジェクト形状の直感的かつ正確な制御は依然として重要な課題である。
既存のアプローチは主にテキストや画像のプロンプトに依存しており、幾何学的特異性に欠けることが多い。
本研究では,3次元生成の空間的制御を明示する訓練不要なテストタイム手法であるSpaceControlを紹介する。
提案手法は、粗いプリミティブから詳細なメッシュまで幅広い幾何学的入力を受け入れ、追加のトレーニングを必要とせず、近代的な事前学習生成モデルとシームレスに統合する。
制御可能なパラメータは、幾何学的忠実度と出力リアリズムのトレードオフを可能にする。
広範にわたる定量的評価とユーザスタディにより、SpaceControlは、高い視覚的品質を維持しながら、トレーニングベースと最適化ベースの両方で、幾何学的忠実さのベースラインを上回っていることが示された。
最後に,テクスチャ化された3Dアセットに直接変換するためのスーパークワッドリックのオンライン編集を可能にする対話型ユーザインタフェースを提案する。
プロジェクトページはhttps://spacecontrol3d.github.io/にある。
関連論文リスト
- Reg3D: Reconstructive Geometry Instruction Tuning for 3D Scene Understanding [6.7958985137291235]
Reg3DはReconstructive Geometry Instruction Tuningフレームワークである。
私たちの重要な洞察は、効果的な3D理解には、単に記述するのではなく、基礎となる幾何学的構造を再構築する必要があります。
ScanQA、Scan2Cap、ScanRefer、SQA3Dの実験は、Reg3Dが大幅なパフォーマンス改善を提供することを示した。
論文 参考訳(メタデータ) (2025-09-03T18:36:44Z) - iControl3D: An Interactive System for Controllable 3D Scene Generation [57.048647153684485]
iControl3Dは、ユーザがカスタマイズ可能な3Dシーンを正確なコントロールで生成およびレンダリングできるようにする、新しいインタラクティブシステムである。
我々は3Dメッシュを仲介プロキシとして利用し、個別の2D拡散生成画像を結合的で統一された3Dシーン表現に反復的にマージする。
私たちのニューラルレンダリングインターフェースは、ユーザが自分のシーンのラディアンスフィールドをオンラインで構築し、シーン全体をナビゲートすることを可能にする。
論文 参考訳(メタデータ) (2024-08-03T06:35:09Z) - PerLDiff: Controllable Street View Synthesis Using Perspective-Layout Diffusion Models [55.080748327139176]
本稿では,3次元幾何学的情報を完全に活用したストリートビュー画像生成手法であるPerLDiffを紹介する。
PerLDiffは、ネットワーク学習プロセス内で正確なオブジェクトレベル制御でストリートビュー画像の生成をガイドするために、3次元の幾何学的事前情報を利用する。
PerLDiffはNuScenesとKITTIデータセット上での制御可能な生成の精度を著しく向上させる。
論文 参考訳(メタデータ) (2024-07-08T16:46:47Z) - Coin3D: Controllable and Interactive 3D Assets Generation with Proxy-Guided Conditioning [52.81032340916171]
Coin3Dを使えば、ユーザーは基本的な形状から組み立てられた粗い幾何学的プロキシを使って3D生成を制御できる。
本手法は,3次元アセット生成タスクにおいて,制御性と柔軟性に優れる。
論文 参考訳(メタデータ) (2024-05-13T17:56:13Z) - Interactive3D: Create What You Want by Interactive 3D Generation [13.003964182554572]
我々はインタラクティブな3D生成のための革新的なフレームワークであるInteractive3Dを紹介した。
実験の結果,Interactive3Dは3D生成の制御性と品質を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2024-04-25T11:06:57Z) - LucidDreaming: Controllable Object-Centric 3D Generation [10.646855651524387]
本稿では,テキストプロンプトコマンドや3Dバウンディングボックスのみから3次元生成を空間的,数値的に制御できるパイプラインを提案する。
LucidDreamingは、現在のアプローチと比較して、オブジェクトの配置精度と生成精度において優れた結果を得る。
論文 参考訳(メタデータ) (2023-11-30T18:55:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。