論文の概要: OmniX: From Unified Panoramic Generation and Perception to Graphics-Ready 3D Scenes
- arxiv url: http://arxiv.org/abs/2510.26800v1
- Date: Thu, 30 Oct 2025 17:59:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.978455
- Title: OmniX: From Unified Panoramic Generation and Perception to Graphics-Ready 3D Scenes
- Title(参考訳): OmniX: 統一パノラマ生成からグラフィクス対応の3Dシーンまで
- Authors: Yukun Huang, Jiwen Yu, Yanning Zhou, Jianan Wang, Xintao Wang, Pengfei Wan, Xihui Liu,
- Abstract要約: パノラマをベースとした2Dリフトは、没入型でリアルで多様な3D環境を作り出すための有望な技術として登場した。
本研究では、物理ベースレンダリング(PBR)、リライティング、シミュレーションに適したグラフィックス対応の3Dシーンを生成するために、この手法を推し進める。
我々の重要な洞察は、幾何学、テクスチャ、PBR材料のパノラマ知覚のための2次元生成モデルを再利用することである。
軽量で効率的なクロスモーダルアダプタ構造に基づいて、OmniXは幅広いパノラマ視覚タスクのために2D生成の先行を再利用する。
- 参考スコア(独自算出の注目度): 57.790894531046796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are two prevalent ways to constructing 3D scenes: procedural generation and 2D lifting. Among them, panorama-based 2D lifting has emerged as a promising technique, leveraging powerful 2D generative priors to produce immersive, realistic, and diverse 3D environments. In this work, we advance this technique to generate graphics-ready 3D scenes suitable for physically based rendering (PBR), relighting, and simulation. Our key insight is to repurpose 2D generative models for panoramic perception of geometry, textures, and PBR materials. Unlike existing 2D lifting approaches that emphasize appearance generation and ignore the perception of intrinsic properties, we present OmniX, a versatile and unified framework. Based on a lightweight and efficient cross-modal adapter structure, OmniX reuses 2D generative priors for a broad range of panoramic vision tasks, including panoramic perception, generation, and completion. Furthermore, we construct a large-scale synthetic panorama dataset containing high-quality multimodal panoramas from diverse indoor and outdoor scenes. Extensive experiments demonstrate the effectiveness of our model in panoramic visual perception and graphics-ready 3D scene generation, opening new possibilities for immersive and physically realistic virtual world generation.
- Abstract(参考訳): 3Dシーンを構築するには、手続き生成と2Dリフトの2つの一般的な方法がある。
その中で、パノラマをベースとした2Dリフトは、没入的でリアルで多様な3D環境を作り出すために、強力な2D生成前駆体を活用する、有望な技術として登場した。
本研究では、物理ベースレンダリング(PBR)、リライティング、シミュレーションに適したグラフィックス対応の3Dシーンを生成するために、この手法を進歩させる。
我々の重要な洞察は、幾何学、テクスチャ、PBR材料のパノラマ知覚のための2次元生成モデルを再利用することである。
外観生成を重視し,固有の特性の認識を無視する既存の2次元リフトアプローチとは異なり,汎用的で統一的なフレームワークであるOmniXを提案する。
軽量で効率的なクロスモーダルアダプタ構造に基づいて、OmniXはパノラマ知覚、生成、完了を含む幅広いパノラマ視覚タスクのために2D生成の先行を再利用する。
さらに,室内および屋外の多様なシーンから,高品質なマルチモーダルパノラマを含む大規模合成パノラマデータセットを構築した。
広汎な実験により、パノラマ視覚知覚とグラフィック対応の3Dシーン生成において、我々のモデルの有効性が実証され、没入型および物理的に現実的な仮想世界生成の新たな可能性が生まれた。
関連論文リスト
- WorldGrow: Generating Infinite 3D World [75.81531067447203]
我々は、無限に拡張可能な3D世界、すなわちコヒーレントな幾何学と現実的な外観を持つ大規模で連続的な環境を生み出すという課題に取り組む。
本研究では,非有界な3次元シーン合成のための階層的フレームワークWorldGrowを提案する。
提案手法は,(1)高品質なシーンブロックを抽出し,シーン生成に適した3D構造化潜在表現を作成するデータキュレーションパイプライン,(2)コンテキスト認識シーン拡張を可能にする3Dブロックインペイント機構,(3)グローバルなレイアウトの妥当性と局所幾何学的/音声的忠実性の両立を保証する粗大かつ微細な生成戦略,の3つのコアコンポーネントを特徴とする。
論文 参考訳(メタデータ) (2025-10-24T17:39:52Z) - TiP4GEN: Text to Immersive Panorama 4D Scene Generation [82.8444414014506]
TiP4GENはテキストから動的パノラマシーン生成フレームワークである。
微粒なコンテンツ制御を可能にし、動きに富んだ幾何学的なパノラマ4Dシーンを合成する。
TiP4GENはパノラマビデオ生成と動的シーン再構成を統合し、360度没入型仮想環境を作成する。
論文 参考訳(メタデータ) (2025-08-17T16:02:24Z) - Matrix-3D: Omnidirectional Explorable 3D World Generation [20.568791715708134]
広視野全方位3次元世界生成のためのパノラマ表現を利用するフレームワークMatrix-3Dを提案する。
まず,シーンメッシュレンダリングを条件として,軌跡誘導パノラマ動画拡散モデルを訓練する。
本研究では, パノラマシーン映像を3次元世界へ持ち上げるために, (1) 高速3次元シーン再構成のためのフィードフォワード大パノラマ再構成モデル, (2) 正確かつ詳細な3次元シーン再構成のための最適化ベースパイプラインの2つの方法を提案する。
論文 参考訳(メタデータ) (2025-08-11T15:29:57Z) - Top2Pano: Learning to Generate Indoor Panoramas from Top-Down View [1.182769785560032]
Top2Panoは、トップダウンビューからリアルな屋内パノラマのエンドツーエンドモデルである。
提案手法は, 3次元構造を推定するために体積占有量を推定し, 粗い色と深度パノラマを生成するために体積レンダリングを用いる。
論文 参考訳(メタデータ) (2025-07-28T22:32:41Z) - DreamCube: 3D Panorama Generation via Multi-plane Synchronization [17.690754213112108]
3Dパノラマ合成は、生成した全方位コンテンツの高品質で多様な視覚的外観と幾何学を必要とする、有望だが挑戦的なタスクである。
既存の手法では、事前訓練された2D基礎モデルのリッチ画像の事前利用により、3Dパノラマデータの不足を回避することができる。
本研究では、2次元基礎モデルから演算子に多面同期を適用することにより、その機能を全方位領域にシームレスに拡張できることを実証する。
論文 参考訳(メタデータ) (2025-06-20T17:55:06Z) - LayerPano3D: Layered 3D Panorama for Hyper-Immersive Scene Generation [105.52153675890408]
3D没入型シーン生成はコンピュータビジョンとグラフィックスにおいて難しいが重要な課題である。
Layerpano3Dは、単一のテキストプロンプトからフルビューで探索可能なパノラマ3Dシーンを生成するための新しいフレームワークである。
論文 参考訳(メタデータ) (2024-08-23T17:50:23Z) - Pano2Room: Novel View Synthesis from a Single Indoor Panorama [20.262621556667852]
Pano2Roomは、1枚のパノラマ画像から高品質な3D屋内シーンを自動的に再構築するように設計されている。
鍵となるアイデアは、最初に入力パノラマから予備メッシュを構築し、パノラマRGBDインペイントを使用して反復的にこのメッシュを洗練することである。
精巧なメッシュは3次元ガウス散乱場に変換され、収集された擬似ノベルビューで訓練される。
論文 参考訳(メタデータ) (2024-08-21T08:19:12Z) - HoloDreamer: Holistic 3D Panoramic World Generation from Text Descriptions [31.342899807980654]
3Dシーン生成は、仮想現実、ゲーム、映画産業など、さまざまな領域で高い需要がある。
フル3Dシーンの全体的初期化として,最初に高精細パノラマを生成するフレームワークであるHoloDreamerを紹介する。
そして、3Dガウススティング(3D-GS)を活用して3Dシーンを迅速に再構築し、ビュー一貫性と完全に囲まれた3Dシーンの作成を容易にする。
論文 参考訳(メタデータ) (2024-07-21T14:52:51Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。