論文の概要: ControlRoom3D: Room Generation using Semantic Proxy Rooms
- arxiv url: http://arxiv.org/abs/2312.05208v1
- Date: Fri, 8 Dec 2023 17:55:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 14:26:36.437247
- Title: ControlRoom3D: Room Generation using Semantic Proxy Rooms
- Title(参考訳): ControlRoom3D:Semantic Proxy Roomsを用いたルーム生成
- Authors: Jonas Schult, Sam Tsai, Lukas H\"ollein, Bichen Wu, Jialiang Wang,
Chih-Yao Ma, Kunpeng Li, Xiaofang Wang, Felix Wimbauer, Zijian He, Peizhao
Zhang, Bastian Leibe, Peter Vajda, Ji Hou
- Abstract要約: 高品質なルームメッシュを生成するための新しい手法であるControlRoom3Dを提案する。
われわれのアプローチはユーザ定義の3Dセマンティック・プロキシールームであり、粗い部屋のレイアウトを概説している。
2Dにレンダリングすると、この3D表現は強力な2Dモデルを制御するための貴重な幾何学的および意味的な情報を提供する。
- 参考スコア(独自算出の注目度): 48.93419701713694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Manually creating 3D environments for AR/VR applications is a complex process
requiring expert knowledge in 3D modeling software. Pioneering works facilitate
this process by generating room meshes conditioned on textual style
descriptions. Yet, many of these automatically generated 3D meshes do not
adhere to typical room layouts, compromising their plausibility, e.g., by
placing several beds in one bedroom. To address these challenges, we present
ControlRoom3D, a novel method to generate high-quality room meshes. Central to
our approach is a user-defined 3D semantic proxy room that outlines a rough
room layout based on semantic bounding boxes and a textual description of the
overall room style. Our key insight is that when rendered to 2D, this 3D
representation provides valuable geometric and semantic information to control
powerful 2D models to generate 3D consistent textures and geometry that aligns
well with the proxy room. Backed up by an extensive study including
quantitative metrics and qualitative user evaluations, our method generates
diverse and globally plausible 3D room meshes, thus empowering users to design
3D rooms effortlessly without specialized knowledge.
- Abstract(参考訳): AR/VRアプリケーション用に手動で3D環境を作成することは、3Dモデリングソフトウェアで専門知識を必要とする複雑なプロセスである。
先駆的な作業は、テキストスタイル記述に基づいたルームメッシュを生成することによって、このプロセスを促進する。
しかし、これらの自動生成された3dメッシュの多くは、典型的な部屋のレイアウトに固執せず、例えば複数のベッドを1つの寝室に置くことで、その信頼性を損なう。
そこで本研究では,高品質ルームメッシュを生成する新しい方法である controlroom3d を提案する。
私たちのアプローチの中心は、セマンティックバウンディングボックスに基づく粗い部屋レイアウトと、部屋全体のスタイルに関するテキスト記述を概説する、ユーザ定義の3dセマンティックプロキシルームです。
我々の重要な洞察は、この3D表現が2Dにレンダリングされると、強力な2Dモデルを制御するために貴重な幾何学的および意味的な情報を提供し、プロキシルームとよく整合する3Dの一貫性のあるテクスチャと幾何学を生成することである。
定量的な計測値や定性的なユーザ評価を含む広範な研究によって,本手法は多種多様かつグローバルに利用可能な3Dルームメッシュを生成する。
関連論文リスト
- SceneCraft: Layout-Guided 3D Scene Generation [29.713491313796084]
シーンクラフト(SceneCraft)は、テキスト記述や空間的レイアウトの好みに則った、室内の詳細なシーンを生成する新しい方法である。
本手法は,多様なテクスチャ,一貫した幾何,現実的な視覚的品質を有する複雑な屋内シーン生成において,既存のアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2024-10-11T17:59:58Z) - SceneTeller: Language-to-3D Scene Generation [15.209079637302905]
本手法では,室内の物体配置を自然言語で記述し,それに対応する高品質な3Dシーンを生成する。
私たちのターンキーパイプラインは最先端の3Dシーンを生成しますが、初心者でも簡単に使用できます。
論文 参考訳(メタデータ) (2024-07-30T10:45:28Z) - Sherpa3D: Boosting High-Fidelity Text-to-3D Generation via Coarse 3D
Prior [52.44678180286886]
2次元拡散モデルでは、3次元データなしで優れた一般化と豊富な詳細を実現する蒸留手法が見つかる。
提案するSherpa3Dは,高忠実度,一般化性,幾何整合性を同時に実現する新しいテキスト・ツー・3Dフレームワークである。
論文 参考訳(メタデータ) (2023-12-11T18:59:18Z) - IPDreamer: Appearance-Controllable 3D Object Generation with Complex Image Prompts [90.49024750432139]
IPDreamerは複雑な$textbfI$mage $textbfP$romptsから複雑な外観特徴をキャプチャし、合成した3Dオブジェクトをこれらの特徴と整合させる。
IPDreamerはテキストと複雑な画像のプロンプトに整合した高品質な3Dオブジェクトを一貫して生成することを示した。
論文 参考訳(メタデータ) (2023-10-09T03:11:08Z) - Estimating Generic 3D Room Structures from 2D Annotations [36.2713028459562]
本稿では,2次元セグメンテーションマスクのみから汎用的な3次元部屋レイアウトを生成する手法を提案する。
これらの2次元アノテーションに基づいて,構造要素とその空間的範囲の3次元平面方程式を自動再構成する。
YouTubeビデオを含むRealEstate10kデータセット上に2246の3Dルームレイアウトをリリースする。
論文 参考訳(メタデータ) (2023-06-15T12:10:27Z) - CC3D: Layout-Conditioned Generation of Compositional 3D Scenes [49.281006972028194]
本稿では,複雑な3次元シーンを2次元セマンティックなシーンレイアウトで合成する条件生成モデルであるCC3Dを紹介する。
合成3D-FRONTと実世界のKITTI-360データセットに対する評価は、我々のモデルが視覚的および幾何学的品質を改善したシーンを生成することを示す。
論文 参考訳(メタデータ) (2023-03-21T17:59:02Z) - SceneHGN: Hierarchical Graph Networks for 3D Indoor Scene Generation
with Fine-Grained Geometry [92.24144643757963]
3D屋内シーンは、インテリアデザインからゲーム、バーチャルおよび拡張現実に至るまで、コンピュータグラフィックスで広く使われている。
高品質な3D屋内シーンは、専門知識が必要であり、手動で高品質な3D屋内シーンを設計するのに時間を要する。
SCENEHGNは3次元屋内シーンの階層的なグラフネットワークであり,部屋レベルからオブジェクトレベルまでの全階層を考慮し,最後にオブジェクト部分レベルに展開する。
提案手法は, 立体形状の細かな家具を含む, 可塑性3次元室内容を直接生成し, 直接的に生成することができる。
論文 参考訳(メタデータ) (2023-02-16T15:31:59Z) - 3D-Aware Indoor Scene Synthesis with Depth Priors [62.82867334012399]
既存の手法では、室内配置や内部の物体の多様さのため、屋内シーンのモデル化に失敗する。
室内のシーンは共通な内在構造を持たず、2次元画像のみを用いるだけでは3次元形状のモデルが適切にガイドできない。
論文 参考訳(メタデータ) (2022-02-17T09:54:29Z) - Roominoes: Generating Novel 3D Floor Plans From Existing 3D Rooms [22.188206636953794]
既存の3D部屋から新しい3Dフロアプランを作成するタスクを提案する。
1つは利用可能な2Dフロアプランを使用して、3Dルームの選択と変形をガイドし、もう1つは互換性のある3Dルームのセットを取得し、それらを新しいレイアウトに組み合わせることを学ぶ。
論文 参考訳(メタデータ) (2021-12-10T16:17:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。