論文の概要: Dreamcrafter: Immersive Editing of 3D Radiance Fields Through Flexible, Generative Inputs and Outputs
- arxiv url: http://arxiv.org/abs/2512.20129v2
- Date: Thu, 25 Dec 2025 01:12:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-29 13:23:29.809275
- Title: Dreamcrafter: Immersive Editing of 3D Radiance Fields Through Flexible, Generative Inputs and Outputs
- Title(参考訳): Dreamcrafter:フレキシブル・ジェネレーション・インプット・アウトプットによる3Dラジアンスフィールドの没入的編集
- Authors: Cyrus Vachha, Yixiao Kang, Zach Dive, Ashwat Chidambaram, Anik Gupta, Eunice Jun, Bjoern Hartmann,
- Abstract要約: 我々は、生成AIの進歩をリアルタイムな没入型3Dラジアンスフィールド編集に組み込む方法について検討する。
我々は,(1)生成型AIアルゴリズムを統合するモジュールアーキテクチャを提供する,(2)自然言語や直接操作を含むオブジェクト生成のためのさまざまなレベルの制御を統合する,(3)高遅延操作時のインタラクションをサポートするプロキシ表現を導入する,という3Dシーン編集システムを紹介した。
- 参考スコア(独自算出の注目度): 11.930415439754173
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Authoring 3D scenes is a central task for spatial computing applications. Competing visions for lowering existing barriers are (1) focus on immersive, direct manipulation of 3D content or (2) leverage AI techniques that capture real scenes (3D Radiance Fields such as, NeRFs, 3D Gaussian Splatting) and modify them at a higher level of abstraction, at the cost of high latency. We unify the complementary strengths of these approaches and investigate how to integrate generative AI advances into real-time, immersive 3D Radiance Field editing. We introduce Dreamcrafter, a VR-based 3D scene editing system that: (1) provides a modular architecture to integrate generative AI algorithms; (2) combines different levels of control for creating objects, including natural language and direct manipulation; and (3) introduces proxy representations that support interaction during high-latency operations. We contribute empirical findings on control preferences and discuss how generative AI interfaces beyond text input enhance creativity in scene editing and world building.
- Abstract(参考訳): 3Dシーンのオーサリングは空間コンピューティングアプリケーションの中心的なタスクである。
既存の障壁を低くするための競合するビジョンは、(1)没入的で直接3Dコンテンツを操作すること、または(2)実際のシーンをキャプチャするAI技術を活用すること(NeRF、3D Gaussian Splattingなど)。
これらのアプローチの補完的強みを統一し、生成的AIの進歩をリアルタイムな没入型3Dラジアンスフィールド編集に組み込む方法について検討する。
このシステムでは,(1)生成するAIアルゴリズムを統合するモジュールアーキテクチャ,(2)自然言語や直接操作を含むオブジェクト生成のためのさまざまなレベルの制御,(3)高遅延操作時のインタラクションをサポートするプロキシ表現を導入している。
制御嗜好に関する実証的な知見を提供し、テキスト入力以上の生成AIインタフェースがシーン編集やワールドビルディングの創造性をいかに促進するかについて議論する。
関連論文リスト
- WorldGen: From Text to Traversable and Interactive 3D Worlds [87.95088818329403]
本稿では,テキストプロンプトから直接,大規模でインタラクティブな3Dワールドを自動生成するシステムWorldGenを紹介する。
我々のアプローチは、自然言語記述を標準のゲームエンジン内で即座に探索または編集できる完全にテクスチャ化された環境に変換する。
この研究は、ゲーム、シミュレーション、没入型社会環境における応用のための3D生成AIのフロンティアを前進させる、アクセス可能で、大規模に生成可能な世界構築への一歩である。
論文 参考訳(メタデータ) (2025-11-20T22:13:18Z) - HLG: Comprehensive 3D Room Construction via Hierarchical Layout Generation [31.010614667725843]
階層レイアウト生成(HLG)は,微細な3次元シーン生成のための新しい手法である。
HLGは、大規模な家具配置から複雑なオブジェクト配置まで、シーンレイアウトを精錬する、粗大できめ細かな階層的アプローチを採用した最初の企業である。
既存の手法と比較して,現実的な屋内シーンの生成において優れた性能を示す。
論文 参考訳(メタデータ) (2025-08-25T09:32:57Z) - HOLODECK 2.0: Vision-Language-Guided 3D World Generation with Editing [41.286679295440855]
HOLODECK 2.0は、3Dワールドジェネレーションのための視覚言語誘導フレームワークであり、人間のフィードバックに基づいたインタラクティブなシーン編集をサポートする。
HOLODECK 2.0は多様でスタイリスティックにリッチな3Dシーンを生成することができる。
プロシージャゲームモデリングにおけるHOLODECK 2.0の実践的応用として,視覚的にリッチで没入感のある環境を生成する。
論文 参考訳(メタデータ) (2025-08-07T23:23:07Z) - HunyuanWorld 1.0: Generating Immersive, Explorable, and Interactive 3D Worlds from Words or Pixels [30.986527559921335]
HunyuanWorld 1.0は、テキストと画像の条件から没入的で探索可能なインタラクティブな3Dシーンを生成するための、両方の世界のベストを組み合わせた、新しいフレームワークである。
提案手法の主な利点は,1)パノラマ世界プロキシによる360度没入体験,2)既存のコンピュータグラフィックスパイプラインとのシームレスな互換性を実現するメッシュエクスポート機能,3)対話性向上のためのオブジェクト表現の非拘束化,の3つである。
論文 参考訳(メタデータ) (2025-07-29T13:43:35Z) - iControl3D: An Interactive System for Controllable 3D Scene Generation [57.048647153684485]
iControl3Dは、ユーザがカスタマイズ可能な3Dシーンを正確なコントロールで生成およびレンダリングできるようにする、新しいインタラクティブシステムである。
我々は3Dメッシュを仲介プロキシとして利用し、個別の2D拡散生成画像を結合的で統一された3Dシーン表現に反復的にマージする。
私たちのニューラルレンダリングインターフェースは、ユーザが自分のシーンのラディアンスフィールドをオンラインで構築し、シーン全体をナビゲートすることを可能にする。
論文 参考訳(メタデータ) (2024-08-03T06:35:09Z) - SplatMesh: Interactive 3D Segmentation and Editing Using Mesh-Based Gaussian Splatting [86.50200613220674]
3Dベースのインタラクティブ編集における重要な課題は、与えられたメモリ制約の下で様々な修正と高品質なビュー合成のバランスをとる効率的な表現がないことである。
SplatMeshは,3次元ガウススプラッティングと事前計算メッシュを統合した,対話型3Dセグメンテーション・編集アルゴリズムである。
単純化されたメッシュのセグメンテーションと編集により、ガウススプレートの編集も効果的に行えます。
論文 参考訳(メタデータ) (2023-12-26T02:50:42Z) - HyperDreamer: Hyper-Realistic 3D Content Generation and Editing from a
Single Image [94.11473240505534]
一つの画像から3Dコンテンツを作成するためのツールであるHyperDreamerを紹介します。
ユーザーは、結果の3Dコンテンツをフル範囲から閲覧、レンダリング、編集できないため、ポストジェネレーションの使用には十分である。
高分解能なテクスチャとユーザフレンドリーな編集が可能な領域認識素材のモデリングにおけるHyperDreamerの有効性を実証する。
論文 参考訳(メタデータ) (2023-12-07T18:58:09Z) - Controllable Radiance Fields for Dynamic Face Synthesis [125.48602100893845]
非剛性運動を示す顔力学の生成モデル合成を明示的に制御する方法について検討する。
制御可能な放射場(CoRF)
頭部画像・映像データから,CoRFは3次元認識可能であり,識別,視聴方向,動きの編集が可能であることを示す。
論文 参考訳(メタデータ) (2022-10-11T23:17:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。