論文の概要: Estimating Generic 3D Room Structures from 2D Annotations
- arxiv url: http://arxiv.org/abs/2306.09077v2
- Date: Thu, 21 Dec 2023 17:07:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-22 19:10:30.898320
- Title: Estimating Generic 3D Room Structures from 2D Annotations
- Title(参考訳): 2次元アノテーションによる3次元空間構造の推定
- Authors: Denys Rozumnyi, Stefan Popov, Kevis-Kokitsi Maninis, Matthias
Nie{\ss}ner, Vittorio Ferrari
- Abstract要約: 本稿では,2次元セグメンテーションマスクのみから汎用的な3次元部屋レイアウトを生成する手法を提案する。
これらの2次元アノテーションに基づいて,構造要素とその空間的範囲の3次元平面方程式を自動再構成する。
YouTubeビデオを含むRealEstate10kデータセット上に2246の3Dルームレイアウトをリリースする。
- 参考スコア(独自算出の注目度): 36.2713028459562
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Indoor rooms are among the most common use cases in 3D scene understanding.
Current state-of-the-art methods for this task are driven by large annotated
datasets. Room layouts are especially important, consisting of structural
elements in 3D, such as wall, floor, and ceiling. However, they are difficult
to annotate, especially on pure RGB video. We propose a novel method to produce
generic 3D room layouts just from 2D segmentation masks, which are easy to
annotate for humans. Based on these 2D annotations, we automatically
reconstruct 3D plane equations for the structural elements and their spatial
extent in the scene, and connect adjacent elements at the appropriate contact
edges. We annotate and publicly release 2246 3D room layouts on the
RealEstate10k dataset, containing YouTube videos. We demonstrate the high
quality of these 3D layouts annotations with extensive experiments.
- Abstract(参考訳): 室内の部屋は3Dシーン理解において最も一般的なユースケースである。
このタスクの現在の最先端メソッドは、大きな注釈付きデータセットによって駆動される。
部屋のレイアウトは特に重要で、壁、床、天井などの3d構造要素で構成されている。
しかし、特に純粋なRGBビデオではアノテートが困難である。
そこで本研究では,人間のアノテートが容易な2次元セグメンテーションマスクから,汎用的な3次元部屋レイアウトを生成する手法を提案する。
これらの2次元アノテーションに基づいて,シーン内の構造要素とその空間範囲の3次元平面方程式を自動再構成し,隣接要素を適切な接点で接続する。
我々は、YouTubeビデオを含むRealEstate10kデータセットに2246の3Dルームレイアウトを注釈して公開しています。
我々は,これら3dレイアウトアノテーションの高品質を広範囲な実験で実証する。
関連論文リスト
- Layout-your-3D: Controllable and Precise 3D Generation with 2D Blueprint [61.25279122171029]
テキストプロンプトから制御可能で構成可能な3D生成が可能なフレームワークを提案する。
提案手法は2次元レイアウトを青写真として活用し,3次元生成の精密かつ確実な制御を容易にする。
論文 参考訳(メタデータ) (2024-10-20T13:41:50Z) - General Geometry-aware Weakly Supervised 3D Object Detection [62.26729317523975]
RGB画像と関連する2Dボックスから3Dオブジェクト検出器を学習するための統合フレームワークを開発した。
KITTIとSUN-RGBDデータセットの実験により,本手法は驚くほど高品質な3次元境界ボックスを2次元アノテーションで生成することを示した。
論文 参考訳(メタデータ) (2024-07-18T17:52:08Z) - ControlRoom3D: Room Generation using Semantic Proxy Rooms [48.93419701713694]
高品質なルームメッシュを生成するための新しい手法であるControlRoom3Dを提案する。
われわれのアプローチはユーザ定義の3Dセマンティック・プロキシールームであり、粗い部屋のレイアウトを概説している。
2Dにレンダリングすると、この3D表現は強力な2Dモデルを制御するための貴重な幾何学的および意味的な情報を提供する。
論文 参考訳(メタデータ) (2023-12-08T17:55:44Z) - SceneHGN: Hierarchical Graph Networks for 3D Indoor Scene Generation
with Fine-Grained Geometry [92.24144643757963]
3D屋内シーンは、インテリアデザインからゲーム、バーチャルおよび拡張現実に至るまで、コンピュータグラフィックスで広く使われている。
高品質な3D屋内シーンは、専門知識が必要であり、手動で高品質な3D屋内シーンを設計するのに時間を要する。
SCENEHGNは3次元屋内シーンの階層的なグラフネットワークであり,部屋レベルからオブジェクトレベルまでの全階層を考慮し,最後にオブジェクト部分レベルに展開する。
提案手法は, 立体形状の細かな家具を含む, 可塑性3次元室内容を直接生成し, 直接的に生成することができる。
論文 参考訳(メタデータ) (2023-02-16T15:31:59Z) - Towards 3D Object Detection with 2D Supervision [13.444432119639822]
大規模2次元ラベルを用いた視覚的3次元物体検出器の学習を可能にするハイブリッドトレーニングフレームワークを提案する。
本稿では3次元予測を時間的2次元ラベルでブリッジする時間的2次元変換を提案する。
nuScenesデータセットで実施された実験は、25%の3Dアノテーションで、強い結果(完全に教師されたパフォーマンスの90%近く)を示した。
論文 参考訳(メタデータ) (2022-11-15T16:40:11Z) - Roominoes: Generating Novel 3D Floor Plans From Existing 3D Rooms [22.188206636953794]
既存の3D部屋から新しい3Dフロアプランを作成するタスクを提案する。
1つは利用可能な2Dフロアプランを使用して、3Dルームの選択と変形をガイドし、もう1つは互換性のある3Dルームのセットを取得し、それらを新しいレイアウトに組み合わせることを学ぶ。
論文 参考訳(メタデータ) (2021-12-10T16:17:01Z) - Bidirectional Projection Network for Cross Dimension Scene Understanding [69.29443390126805]
本稿では,2次元および3次元の連立推論のための縦方向投影網(BPNet)をエンドツーエンドに提示する。
emphBPM、補完的な2D、および3D情報は、複数のアーキテクチャレベルで相互に相互作用することができる。
我々のemphBPNetは2次元および3次元セマンティックセマンティックセグメンテーションのためのScanNetV2ベンチマークで最高性能を達成した。
論文 参考訳(メタデータ) (2021-03-26T08:31:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。