論文の概要: Plan2Scene: Converting Floorplans to 3D Scenes
- arxiv url: http://arxiv.org/abs/2106.05375v1
- Date: Wed, 9 Jun 2021 20:32:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-11 14:11:57.872815
- Title: Plan2Scene: Converting Floorplans to 3D Scenes
- Title(参考訳): Plan2Scene: フロアプランを3Dシーンに変換する
- Authors: Madhawa Vidanapathirana, Qirui Wu, Yasutaka Furukawa, Angel X. Chang
and Manolis Savva
- Abstract要約: 住宅のフロアプランと関連する写真の集合をテクスチャ化された3Dメッシュモデルに変換するタスクに対処する。
システム1)は、フロアプラン画像を3Dメッシュモデルに引き上げ、2)入力された写真に基づいて表面テクスチャを合成し、3)グラフニューラルネットワークアーキテクチャを用いて未観測表面のテクスチャを推論する。
- 参考スコア(独自算出の注目度): 36.34298107648571
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the task of converting a floorplan and a set of associated photos
of a residence into a textured 3D mesh model, a task which we call Plan2Scene.
Our system 1) lifts a floorplan image to a 3D mesh model; 2) synthesizes
surface textures based on the input photos; and 3) infers textures for
unobserved surfaces using a graph neural network architecture. To train and
evaluate our system we create indoor surface texture datasets, and augment a
dataset of floorplans and photos from prior work with rectified surface crops
and additional annotations. Our approach handles the challenge of producing
tileable textures for dominant surfaces such as floors, walls, and ceilings
from a sparse set of unaligned photos that only partially cover the residence.
Qualitative and quantitative evaluations show that our system produces
realistic 3D interior models, outperforming baseline approaches on a suite of
texture quality metrics and as measured by a holistic user study.
- Abstract(参考訳): 我々は,集合住宅のフロアプランと関連画像のセットを,plan2sceneと呼ばれるテクスチャ付き3dメッシュモデルに変換するタスクに対処した。
システム1)は、フロアプラン画像を3Dメッシュモデルに引き上げ、2)入力画像に基づいて表面テクスチャを合成し、3)グラフニューラルネットワークアーキテクチャを用いて未観測表面のテクスチャを推論する。
システムをトレーニングし,評価するために,室内表層テクスチャデータセットを作成し,調整した表層作物と追加アノテーションを用いた事前作業によるフロアプランと写真のデータセットを増強する。
提案手法では,床や壁,天井などの支配的な表面のタイル性テクスチャを,住宅を部分的に覆うような不揃いな写真から生成することの難しさを解決している。
質的・定量的評価により,本システムは現実的な3次元インテリアモデルを作成し,テクスチャ品質指標群におけるベースラインアプローチを上回り,総合的なユーザスタディにより測定した。
関連論文リスト
- TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - 3D-TexSeg: Unsupervised Segmentation of 3D Texture using Mutual
Transformer Learning [11.510823733292519]
本稿ではメッシュ多様体上の3次元テクスチャの教師なしセグメンテーションのための独自のフレームワークを提案する。
ラベル生成器とクリーナーを組み合わせた相互変換器を考案する。
多様なテクスチャパターンを持つ3つの公開データセットの実験は、提案フレームワークが標準およびSOTA教師なし技術より優れていることを示した。
論文 参考訳(メタデータ) (2023-11-17T17:13:14Z) - TwinTex: Geometry-aware Texture Generation for Abstracted 3D
Architectural Models [13.248386665044087]
我々はTwinTexについて紹介する。TwinTexは写真にリアルなテクスチャを生成する最初の自動テクスチャマッピングフレームワークである。
提案手法は, 高品質なテクスチャマッピング手法を超越し, より少ない労力で, 熟練した生産水準に達する。
論文 参考訳(メタデータ) (2023-09-20T12:33:53Z) - Text2Room: Extracting Textured 3D Meshes from 2D Text-to-Image Models [21.622420436349245]
入力としてテキストプロンプトからルームスケールのテクスチャ化された3Dメッシュを生成する方法であるText2Roomを提案する。
我々は、事前訓練された2次元テキスト・画像モデルを利用して、異なるポーズから画像列を合成する。
これらの出力を一貫した3次元シーン表現に引き上げるために、単眼深度推定とテキスト条件のインペイントモデルを組み合わせる。
論文 参考訳(メタデータ) (2023-03-21T16:21:02Z) - PhotoScene: Photorealistic Material and Lighting Transfer for Indoor
Scenes [84.66946637534089]
PhotoSceneは、シーンの入力画像を取得し、高品質な素材と同様の照明を備えたフォトリアリスティックデジタルツインを構築するフレームワークである。
プロシージャ素材グラフを用いてシーン素材をモデル化し、そのようなグラフはフォトリアリスティックおよび解像度非依存の材料を表す。
ScanNet, SUN RGB-D, ストック写真からのオブジェクトとレイアウトの再構築について検討し, 高品質で完全に再現可能な3Dシーンを再現できることを実証した。
論文 参考訳(メタデータ) (2022-07-02T06:52:44Z) - EigenFairing: 3D Model Fairing using Image Coherence [0.884755712094096]
表面はしばしば、メッシュの顔に関連する3Dポイントとテクスチャの三角形メッシュとしてモデル化される。
点が実表面の最大曲率や不連続性の臨界点に置かれない場合、メッシュの面はモデル化された表面の近くには置かれない。
本稿では,物体の観察画像の集合と整合するように頂点を再構成して3次元表面モデルを完成させる手法を提案する。
論文 参考訳(メタデータ) (2022-06-10T18:13:19Z) - Texturify: Generating Textures on 3D Shape Surfaces [34.726179801982646]
本研究では3次元入力のテクスチャを予測する3次元形状を学習するためにTexturifyを提案する。
本手法では,3Dオブジェクトの学習に3Dカラー管理は不要である。
論文 参考訳(メタデータ) (2022-04-05T18:00:04Z) - NeuTex: Neural Texture Mapping for Volumetric Neural Rendering [48.83181790635772]
本稿では,ジオメトリ-連続3次元ボリューム-出現-連続2次元テクスチャマップとして表現-を明示的に切り離す手法を提案する。
我々は,この表現を多視点画像監視のみを用いて再構成し,高品質なレンダリング結果を生成することを実証した。
論文 参考訳(メタデータ) (2021-03-01T05:34:51Z) - OSTeC: One-Shot Texture Completion [86.23018402732748]
ワンショット3D顔テクスチャ補完のための教師なしアプローチを提案する。
提案手法では,2次元フェースジェネレータで回転画像を再構成することにより,入力画像を3次元で回転させ,見えない領域を埋め込む。
完成したテクスチャーをジェネレーターに投影することで、ターゲットイメージを先取りします。
論文 参考訳(メタデータ) (2020-12-30T23:53:26Z) - Pix2Surf: Learning Parametric 3D Surface Models of Objects from Images [64.53227129573293]
1つ以上の視点から見れば、新しいオブジェクトの3次元パラメトリック表面表現を学習する際の課題について検討する。
ビュー間で一貫した高品質なパラメトリックな3次元表面を生成できるニューラルネットワークを設計する。
提案手法は,共通対象カテゴリからの形状の公開データセットに基づいて,教師と訓練を行う。
論文 参考訳(メタデータ) (2020-08-18T06:33:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。