論文の概要: Room Envelopes: A Synthetic Dataset for Indoor Layout Reconstruction from Images
- arxiv url: http://arxiv.org/abs/2511.03970v1
- Date: Thu, 06 Nov 2025 01:46:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.264068
- Title: Room Envelopes: A Synthetic Dataset for Indoor Layout Reconstruction from Images
- Title(参考訳): Room Envelopes:画像からの室内レイアウト再構築のための合成データセット
- Authors: Sam Bahrami, Dylan Campbell,
- Abstract要約: 現代のシーン再構築手法では、1つ以上の画像で見える3D表面を復元することができる。
これにより不完全な復元が行われ、閉鎖面が全て失われる。
我々は、壁、床、天井などのシーンの構造的要素があまり注目されていないと論じている。
- 参考スコア(独自算出の注目度): 21.08510903329145
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern scene reconstruction methods are able to accurately recover 3D surfaces that are visible in one or more images. However, this leads to incomplete reconstructions, missing all occluded surfaces. While much progress has been made on reconstructing entire objects given partial observations using generative models, the structural elements of a scene, like the walls, floors and ceilings, have received less attention. We argue that these scene elements should be relatively easy to predict, since they are typically planar, repetitive and simple, and so less costly approaches may be suitable. In this work, we present a synthetic dataset -- Room Envelopes -- that facilitates progress on this task by providing a set of RGB images and two associated pointmaps for each image: one capturing the visible surface and one capturing the first surface once fittings and fixtures are removed, that is, the structural layout. As we show, this enables direct supervision for feed-forward monocular geometry estimators that predict both the first visible surface and the first layout surface. This confers an understanding of the scene's extent, as well as the shape and location of its objects.
- Abstract(参考訳): 現代のシーン再構成手法は、1つ以上の画像で見える3D表面を正確に復元することができる。
しかし、これは不完全な復元につながり、閉鎖面が全て失われる。
生成モデルを用いた部分的な観察によるオブジェクト全体の再構築については、多くの進展があったが、壁や床、天井といったシーンの構造的要素は、あまり注目されていない。
これらのシーン要素は、一般的に計画的で反復的でシンプルなので、比較的簡単に予測できるべきだ、と私たちは主張する。
本研究では,各画像に対するRGB画像と関連する2つのポイントマップのセットを提供することにより,タスクの進捗を促進する合成データセットであるRoom Envelopesを提案する。
これにより、第1の可視面と第1のレイアウト面の両方を予測するフィードフォワード単色形状推定器の直接監視が可能となる。
これは、シーンの広さと、その物体の形状と位置について理解するものである。
関連論文リスト
- Single-view 3D Scene Reconstruction with High-fidelity Shape and Texture [47.44029968307207]
本研究では,物体の形状とテクスチャを同時に高忠実度に再現する新しい枠組みを提案する。
提案手法は,SSR(Single-view Neural implicit Shape and Radiance Field)表現を用いて,明示的な3次元形状制御とボリュームレンダリングの両方を活用する。
我々のフレームワークの特徴は、単一のビュー3D再構成モデルにレンダリング機能をシームレスに統合しながら、きめ細かいテクスチャメッシュを生成する能力である。
論文 参考訳(メタデータ) (2023-11-01T11:46:15Z) - Factored-NeuS: Reconstructing Surfaces, Illumination, and Materials of Possibly Glossy Objects [58.25772313290338]
提案する多視点画像からシーンの表面, 材料, 照明を復元する手法を開発した。
追加のデータは必要ないし、光沢のあるオブジェクトや明るい照明も扱える。
論文 参考訳(メタデータ) (2023-05-29T07:44:19Z) - ReFu: Refine and Fuse the Unobserved View for Detail-Preserving
Single-Image 3D Human Reconstruction [31.782985891629448]
シングルイメージの3次元再構成は,1枚の画像から人体の3次元テクスチャ面を再構築することを目的としている。
提案するReFuは、投影された背景像を精細化し、その精細な画像を融合して最終人体を予測するための粗大なアプローチである。
論文 参考訳(メタデータ) (2022-11-09T09:14:11Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Towards High-Fidelity Single-view Holistic Reconstruction of Indoor
Scenes [50.317223783035075]
単視点画像から総合的な3次元屋内シーンを再構築するための新しい枠組みを提案する。
詳細なオブジェクト再構成のためのインスタンス整列型暗黙関数(InstPIFu)を提案する。
私たちのコードとモデルは公開されます。
論文 参考訳(メタデータ) (2022-07-18T14:54:57Z) - Reconstructing Small 3D Objects in front of a Textured Background [0.0]
テクスチャ化された背景の前を移動する小さな物体の完全な3次元再構成手法を提案する。
これは運動から多体構造の特定のバリエーションであり、2つの物体のみに特化している。
実物を用いた実験では, 両面から3次元オブジェクトを再構成する際に, 現実的な利点があることが示されている。
論文 参考訳(メタデータ) (2021-05-24T15:36:33Z) - Reconstructing Interactive 3D Scenes by Panoptic Mapping and CAD Model
Alignments [81.38641691636847]
エンボディエージェントの観点から,シーン再構築の問題を再考する。
rgb-dデータストリームを用いてインタラクティブシーンを再構築する。
この再構成されたシーンは、密集したパノプティカルマップのオブジェクトメッシュを、部分ベースのCADモデルに置き換える。
論文 参考訳(メタデータ) (2021-03-30T05:56:58Z) - Total3DUnderstanding: Joint Layout, Object Pose and Mesh Reconstruction
for Indoor Scenes from a Single Image [24.99186733297264]
本研究では,単一画像から部屋レイアウト,オブジェクト境界ボックス,メッシュを共同で再構築するエンド・ツー・エンドのソリューションを提案する。
本手法は,3成分からなる粗大な階層構造を提案する。
SUN RGB-D および Pix3D データセットを用いた実験により,本手法が既存手法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2020-02-27T16:00:52Z) - Seeing the World in a Bag of Chips [73.561388215585]
ハンドヘルドRGBDセンサによる新しいビュー合成と環境再構築の二重問題に対処する。
提案するコントリビューションは,1)高スペクトル物体のモデリング,2)反射間およびフレネル効果のモデリング,3)形状のみを再構築するために必要な同じ入力で表面光場再構成を可能にすることを含む。
論文 参考訳(メタデータ) (2020-01-14T06:44:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。