論文の概要: WonderTurbo: Generating Interactive 3D World in 0.72 Seconds
- arxiv url: http://arxiv.org/abs/2504.02261v1
- Date: Thu, 03 Apr 2025 04:10:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:56:39.058777
- Title: WonderTurbo: Generating Interactive 3D World in 0.72 Seconds
- Title(参考訳): インタラクティブな3Dワールドを0.72秒で生成するWonderTurbo
- Authors: Chaojun Ni, Xiaofeng Wang, Zheng Zhu, Weijie Wang, Haoyun Li, Guosheng Zhao, Jie Li, Wenkang Qin, Guan Huang, Wenjun Mei,
- Abstract要約: 我々は,0.72秒以内で3Dシーンの新たな視点を生成できる,初めてのリアルタイムインタラクティブな3Dシーン生成フレームワークであるWonderTurboを紹介する。
具体的には、WonderTurboは幾何学的および外見的モデリングの両方を3Dシーン生成で高速化する。
- 参考スコア(独自算出の注目度): 29.61066704266084
- License:
- Abstract: Interactive 3D generation is gaining momentum and capturing extensive attention for its potential to create immersive virtual experiences. However, a critical challenge in current 3D generation technologies lies in achieving real-time interactivity. To address this issue, we introduce WonderTurbo, the first real-time interactive 3D scene generation framework capable of generating novel perspectives of 3D scenes within 0.72 seconds. Specifically, WonderTurbo accelerates both geometric and appearance modeling in 3D scene generation. In terms of geometry, we propose StepSplat, an innovative method that constructs efficient 3D geometric representations through dynamic updates, each taking only 0.26 seconds. Additionally, we design QuickDepth, a lightweight depth completion module that provides consistent depth input for StepSplat, further enhancing geometric accuracy. For appearance modeling, we develop FastPaint, a 2-steps diffusion model tailored for instant inpainting, which focuses on maintaining spatial appearance consistency. Experimental results demonstrate that WonderTurbo achieves a remarkable 15X speedup compared to baseline methods, while preserving excellent spatial consistency and delivering high-quality output.
- Abstract(参考訳): インタラクティブな3D生成が勢いを増し、没入型仮想体験を生み出す可能性に対して、大きな注目を集めている。
しかし、現在の3D生成技術における重要な課題は、リアルタイムの対話性を実現することである。
この問題に対処するためにWonderTurboを紹介した。WonderTurboは,0.72秒以内で3Dシーンの新たな視点を生成できる,初めてのリアルタイムインタラクティブな3Dシーン生成フレームワークである。
具体的には、WonderTurboは幾何学的および外見的モデリングの両方を3Dシーン生成で高速化する。
動的更新によって効率的な3次元幾何表現を構築する革新的な手法であるStepSplatを提案する。
さらに,StepSplatに一貫した深度入力を提供する軽量な深度補完モジュールであるQuickDepthを設計し,幾何精度をさらに向上する。
空間的外観の整合性を維持することを目的とした2段階拡散モデルであるFastPaintを開発した。
実験結果から,WonderTurboは空間整合性に優れ,高品質な出力を実現しつつ,ベースライン法に比べて15倍の高速化を実現していることがわかった。
関連論文リスト
- InsTex: Indoor Scenes Stylized Texture Synthesis [81.12010726769768]
拡張現実(ARVR)アプリケーションでは、高品質なテクスチャが3Dシーンに不可欠である。
現在の手法は、長い処理時間と視覚的アーティファクトに悩まされている。
3Dシーンのための高品質なテクスチャを生成するために設計された2段階アーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-01-22T08:37:59Z) - CaPa: Carve-n-Paint Synthesis for Efficient 4K Textured Mesh Generation [2.544527978847722]
CaPaは、高忠実度3Dアセットを効率的に生成するカーブ・アンド・ペイントのフレームワークである。
テクスチャの忠実さと幾何学的安定性に優れ、実用的でスケーラブルな3Dアセット生成のための新しい標準を確立する。
論文 参考訳(メタデータ) (2025-01-16T10:03:15Z) - Speedy-Splat: Fast 3D Gaussian Splatting with Sparse Pixels and Sparse Primitives [60.217580865237835]
3D Gaussian Splatting (3D-GS)は、3D Gaussian のパラメトリック点雲としてシーンをモデル化することで、新しいビューをリアルタイムにレンダリングすることのできる最近の3Dシーン再構築技術である。
レンダリング速度を大幅に向上させるために、3D-GSにおける2つの重要な非効率を同定し、対処する。
われわれのSpeedy-Splatアプローチはこれらの技術を組み合わせて、Mip-NeRF 360、Turps & Temples、Deep Blendingのデータセットから得られる、劇的な$mathit6.71timesで平均レンダリング速度を加速する。
論文 参考訳(メタデータ) (2024-11-30T20:25:56Z) - WonderWorld: Interactive 3D Scene Generation from a Single Image [38.83667648993784]
我々はインタラクティブな3Dシーン生成のための新しいフレームワークWonderWorldを紹介する。
WonderWorldは、単一のA6000 GPU上で10秒未満で接続された多様な3Dシーンを生成する。
論文 参考訳(メタデータ) (2024-06-13T17:59:10Z) - DreamScene360: Unconstrained Text-to-3D Scene Generation with Panoramic Gaussian Splatting [56.101576795566324]
テキストから3D 360$circ$のシーン生成パイプラインを提示する。
提案手法は, 2次元拡散モデルの生成力を利用して, 自己複製を促進する。
当社の手法は,360ドル(約3万2000円)の視野内で,グローバルに一貫した3Dシーンを提供する。
論文 参考訳(メタデータ) (2024-04-10T10:46:59Z) - One-2-3-45++: Fast Single Image to 3D Objects with Consistent Multi-View
Generation and 3D Diffusion [32.29687304798145]
One-2-3-45++は、1つの画像を1分で詳細な3Dテクスチャメッシュに変換する革新的な方法である。
提案手法は,2次元拡散モデルに埋め込まれた広範囲な知識を,貴重な3次元データから活用することを目的としている。
論文 参考訳(メタデータ) (2023-11-14T03:40:25Z) - GETAvatar: Generative Textured Meshes for Animatable Human Avatars [69.56959932421057]
高品質なジオメトリとテクスチャを備えたアニマタブルな人体アバターを製作することを目的とした,3D対応フルボディヒューマンジェネレーションの課題について検討した。
アニマタブルなヒトアバターの3Dレンダリングを直接生成する生成モデルであるGETAvatarを提案する。
論文 参考訳(メタデータ) (2023-10-04T10:30:24Z) - XDGAN: Multi-Modal 3D Shape Generation in 2D Space [60.46777591995821]
本稿では,3次元形状をコンパクトな1チャネル幾何画像に変換し,StyleGAN3と画像間翻訳ネットワークを利用して2次元空間で3次元オブジェクトを生成する手法を提案する。
生成された幾何学画像は素早く3Dメッシュに変換し、リアルタイムな3Dオブジェクト合成、可視化、インタラクティブな編集を可能にする。
近年の3次元生成モデルと比較して,より高速かつ柔軟な3次元形状生成,単一ビュー再構成,形状操作などの様々なタスクにおいて,本手法が有効であることを示す。
論文 参考訳(メタデータ) (2022-10-06T15:54:01Z) - GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images [72.15855070133425]
本稿では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを備えたExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-09-22T17:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。