論文の概要: AURORA: Automated Unleash of 3D Room Outlines for VR Applications
- arxiv url: http://arxiv.org/abs/2412.11033v1
- Date: Sun, 15 Dec 2024 03:06:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:57:36.052676
- Title: AURORA: Automated Unleash of 3D Room Outlines for VR Applications
- Title(参考訳): AURORA:VRアプリケーションのための3Dルームアウトラインの自動化
- Authors: Huijun Han, Yongqing Liang, Yuanlong Zhou, Wenping Wang, Edgar J. Rojas-Munoz, Xin Li,
- Abstract要約: AURORAは、RGB-D画像を利用して、バーチャルリアリティ(VR)シーンとVRシーンの両方を自動的に生成する新しい手法である。
AURORAは、画像処理、セグメンテーション、および3D再構成における高度な技術を統合し、現実的で詳細なインテリアデザインを効率的に作成する。
- 参考スコア(独自算出の注目度): 29.70242715879101
- License:
- Abstract: Creating realistic VR experiences is challenging due to the labor-intensive process of accurately replicating real-world details into virtual scenes, highlighting the need for automated methods that maintain spatial accuracy and provide design flexibility. In this paper, we propose AURORA, a novel method that leverages RGB-D images to automatically generate both purely virtual reality (VR) scenes and VR scenes combined with real-world elements. This approach can benefit designers by streamlining the process of converting real-world details into virtual scenes. AURORA integrates advanced techniques in image processing, segmentation, and 3D reconstruction to efficiently create realistic and detailed interior designs from real-world environments. The design of this integration ensures optimal performance and precision, addressing key challenges in automated indoor design generation by uniquely combining and leveraging the strengths of foundation models. We demonstrate the effectiveness of our approach through experiments, both on self-captured data and public datasets, showcasing its potential to enhance virtual reality (VR) applications by providing interior designs that conform to real-world positioning.
- Abstract(参考訳): リアルなVR体験を作ることは、現実世界の細部をバーチャルなシーンに正確に複製する労働集約的なプロセスのため、空間的精度を維持し、設計の柔軟性を提供する自動化方法の必要性を強調しているため、難しい。
本稿では,RGB-D画像を利用したVRシーンとVRシーンの両方を自動的に生成する新しい手法であるAURORAを提案する。
このアプローチは、現実世界の詳細を仮想シーンに変換するプロセスの合理化によって、デザイナの恩恵を受けることができる。
AURORAは、画像処理、セグメンテーション、および3D再構成における高度な技術を統合し、現実世界の環境から現実的で詳細なインテリアデザインを効率的に作成する。
この統合の設計により、最適性能と精度が保証され、基礎モデルの強みを一意に組み合わせ、活用することにより、屋内設計の自動生成における重要な課題に対処できる。
我々は、自己キャプチャデータと公開データセットの両方を用いて、我々のアプローチの有効性を実証し、現実世界の位置決めに適合したインテリアデザインを提供することで、仮想現実(VR)アプリケーションを強化する可能性を示す。
関連論文リスト
- VR-Splatting: Foveated Radiance Field Rendering via 3D Gaussian Splatting and Neural Points [4.962171160815189]
仮想現実システムの高性能な要求は、3DGSのような高速なシーン表現を活用する上で課題となる。
これらの障害に対する有望な解決策として、ファベレーテッドレンダリングを提案する。
本手法では, 周辺視の3DGSのスムーズなレンダリングと融合した, 周辺領域の神経点レンダリングのシャープで詳細な出力を生かした, 仮想現実感のための新たなファブリックレンダリング手法を提案する。
論文 参考訳(メタデータ) (2024-10-23T14:54:48Z) - SpaceBlender: Creating Context-Rich Collaborative Spaces Through Generative 3D Scene Blending [19.06858242647237]
ユーザが提供する2Dイメージを,コンテキストに富んだ3D環境に変換するパイプラインであるSpaceBlenderを紹介する。
参加者はSpaceBlenderが提供する親しみやすさとコンテキストを高く評価したが、生成環境の複雑さは注目された。
そこで我々は,パイプライン改善の方向性を提案し,異なるシナリオに対するブレンド空間の価値と設計について議論する。
論文 参考訳(メタデータ) (2024-09-20T22:27:31Z) - Coral Model Generation from Single Images for Virtual Reality Applications [22.18438294137604]
本稿では,1つの画像から高精度な3次元サンゴモデルを生成するディープラーニングフレームワークを提案する。
このプロジェクトには、AI生成モデルをインタラクティブな"アートワーク"に変換するための説明可能なAI(XAI)が組み込まれている。
論文 参考訳(メタデータ) (2024-09-04T01:54:20Z) - Closing the Visual Sim-to-Real Gap with Object-Composable NeRFs [59.12526668734703]
本稿では,オブジェクト合成可能なNeRFモデルであるComposable Object Volume NeRF(COV-NeRF)を紹介する。
COV-NeRFは、実際の画像からオブジェクトを抽出し、それらを新しいシーンに合成し、フォトリアリスティックなレンダリングと多くのタイプの2Dおよび3D監視を生成する。
論文 参考訳(メタデータ) (2024-03-07T00:00:02Z) - VR-GS: A Physical Dynamics-Aware Interactive Gaussian Splatting System in Virtual Reality [39.53150683721031]
提案するVR-GSシステムは,人間中心の3Dコンテンツインタラクションにおける飛躍的な進歩を示す。
私たちの仮想現実システムのコンポーネントは、高い効率と有効性のために設計されています。
論文 参考訳(メタデータ) (2024-01-30T01:28:36Z) - VR-NeRF: High-Fidelity Virtualized Walkable Spaces [55.51127858816994]
本稿では,高忠実度キャプチャ,モデル再構成,リアルタイムレンダリングのためのエンドツーエンドシステムを提案する。
論文 参考訳(メタデータ) (2023-11-05T02:03:14Z) - Evaluating Continual Learning Algorithms by Generating 3D Virtual
Environments [66.83839051693695]
連続学習とは、人間や動物が特定の環境で徐々に学習する能力である。
本稿では3次元仮想環境の最近の進歩を活用して,フォトリアリスティックな外観を持つ潜在的に長寿命な動的シーンの自動生成にアプローチすることを提案する。
本論文の新たな要素は、シーンがパラメトリックな方法で記述され、エージェントが知覚する入力ストリームの視覚的複雑さを完全に制御できることである。
論文 参考訳(メタデータ) (2021-09-16T10:37:21Z) - Learning Indoor Inverse Rendering with 3D Spatially-Varying Lighting [149.1673041605155]
1枚の画像からアルベド, 正常, 深さ, 3次元の空間的変化を共同で推定する問題に対処する。
既存のほとんどの方法は、シーンの3D特性を無視して、画像から画像への変換としてタスクを定式化する。
本研究では3次元空間変動照明を定式化する統合学習ベースの逆フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-13T15:29:03Z) - OpenRooms: An End-to-End Open Framework for Photorealistic Indoor Scene
Datasets [103.54691385842314]
本研究では,屋内シーンの大規模フォトリアリスティックデータセットを作成するための新しいフレームワークを提案する。
私たちの目標は、データセット作成プロセスを広く利用できるようにすることです。
これにより、逆レンダリング、シーン理解、ロボット工学における重要な応用が可能になる。
論文 参考訳(メタデータ) (2020-07-25T06:48:47Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z) - Keep It Real: a Window to Real Reality in Virtual Reality [13.173307471333619]
仮想空間上に投影された仮想鏡や窓からなる仮想現実感(VR)環境において,新たなインタラクションパラダイムを提案する。
このテクニックは、さまざまなビデオ、ライブストリーミングアプリ、拡張現実および仮想現実設定に適用して、インタラクティブで没入的なユーザエクスペリエンスを提供する。
論文 参考訳(メタデータ) (2020-04-21T21:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。