論文の概要: SceneCAD: Predicting Object Alignments and Layouts in RGB-D Scans
- arxiv url: http://arxiv.org/abs/2003.12622v1
- Date: Fri, 27 Mar 2020 20:17:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 05:21:28.426990
- Title: SceneCAD: Predicting Object Alignments and Layouts in RGB-D Scans
- Title(参考訳): SceneCAD:RGB-Dスキャンにおけるオブジェクトアライメントとレイアウトの予測
- Authors: Armen Avetisyan, Tatiana Khanova, Christopher Choy, Denver Dash,
Angela Dai, Matthias Nie{\ss}ner
- Abstract要約: 本稿では,コモディティRGB-Dセンサからスキャンした3D環境の軽量CADによる表現を再構築する手法を提案する。
私たちのキーとなるアイデアは、CADモデルのアライメントとスキャンされたシーンのレイアウト推定の両方を共同で最適化することです。
- 参考スコア(独自算出の注目度): 24.06640371472068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel approach to reconstructing lightweight, CAD-based
representations of scanned 3D environments from commodity RGB-D sensors. Our
key idea is to jointly optimize for both CAD model alignments as well as layout
estimations of the scanned scene, explicitly modeling inter-relationships
between objects-to-objects and objects-to-layout. Since object arrangement and
scene layout are intrinsically coupled, we show that treating the problem
jointly significantly helps to produce globally-consistent representations of a
scene. Object CAD models are aligned to the scene by establishing dense
correspondences between geometry, and we introduce a hierarchical layout
prediction approach to estimate layout planes from corners and edges of the
scene.To this end, we propose a message-passing graph neural network to model
the inter-relationships between objects and layout, guiding generation of a
globally object alignment in a scene. By considering the global scene layout,
we achieve significantly improved CAD alignments compared to state-of-the-art
methods, improving from 41.83% to 58.41% alignment accuracy on SUNCG and from
50.05% to 61.24% on ScanNet, respectively. The resulting CAD-based
representations makes our method well-suited for applications in content
creation such as augmented- or virtual reality.
- Abstract(参考訳): 本稿では,コモディティRGB-Dセンサからスキャンした3D環境の軽量CADによる表現を再構築する手法を提案する。
私たちの重要なアイデアは、cadモデルアライメントとスキャンされたシーンのレイアウト推定の両方を共同で最適化し、オブジェクトとオブジェクト間の関係を明示的にモデル化することです。
オブジェクトアレンジメントとシーンレイアウトは本質的に結合しているため、問題を共同で扱うことは、シーンのグローバルに一貫性のある表現を生み出すのに大いに役立ちます。
オブジェクトCADモデルは,幾何間の密接な対応を確立し,シーンの角と端からレイアウト平面を推定するための階層的レイアウト予測手法を導入し,その目的を達成するために,オブジェクトとレイアウト間の関係をモデル化し,シーン内のグローバルなオブジェクトアライメントの発生を誘導するメッセージパスグラフニューラルネットワークを提案する。
グローバルシーンレイアウトを考慮し,cadアライメントを最先端手法と比較して有意に改善し,suncgでは41.83%から58.41%に,scannetでは50.05%から61.24%に改善した。
その結果,CADによる表現は,拡張現実や仮想現実などのコンテンツ制作に適していることがわかった。
関連論文リスト
- SceneWiz3D: Towards Text-guided 3D Scene Composition [134.71933134180782]
既存のアプローチでは、大規模なテキスト・ツー・イメージモデルを使用して3D表現を最適化するか、オブジェクト中心のデータセット上で3Dジェネレータをトレーニングする。
テキストから高忠実度3Dシーンを合成する新しい手法であるSceneWiz3Dを紹介する。
論文 参考訳(メタデータ) (2023-12-13T18:59:30Z) - Sparse Multi-Object Render-and-Compare [33.97243145891282]
一つの画像から静的な物体の3次元形状とポーズを再構築することは、様々な産業にとって重要な課題である。
直接3D形状を予測することで、非現実的で、過度に滑らかになったり、刻まれた形になる。
CADモデルを取得することで、現実的な形状が保証されるが、堅牢で正確なアライメントが必要である。
論文 参考訳(メタデータ) (2023-10-17T12:01:32Z) - CommonScenes: Generating Commonsense 3D Indoor Scenes with Scene Graph
Diffusion [83.30168660888913]
シーングラフを対応する制御可能な3Dシーンに変換する完全生成モデルであるCommonScenesを提案する。
パイプラインは2つのブランチで構成されており、1つは変分オートエンコーダでシーン全体のレイアウトを予測し、もう1つは互換性のある形状を生成する。
生成されたシーンは、入力シーングラフを編集し、拡散モデルのノイズをサンプリングすることで操作することができる。
論文 参考訳(メタデータ) (2023-05-25T17:39:13Z) - Joint stereo 3D object detection and implicit surface reconstruction [39.30458073540617]
本稿では,SO(3)の正確なオブジェクト指向を復元し,ステレオRGB画像から暗黙的な剛性形状を同時に予測できる学習ベースのフレームワークS-3D-RCNNを提案する。
方向推定のためには、局所的な外観を観測角度にマッピングする従来の研究とは対照的に、意味のある幾何学的表現(IGR)を抽出して進歩的なアプローチを提案する。
このアプローチは、知覚強度を1つか2つのビューからオブジェクト部分座標に変換するディープモデルにより、カメラ座標系において、直接自我中心のオブジェクト指向推定を実現する。
3次元境界ボックス内におけるより詳細な記述を実現するため,ステレオ画像からの暗黙的形状推定問題について検討する。
論文 参考訳(メタデータ) (2021-11-25T05:52:30Z) - Patch2CAD: Patchwise Embedding Learning for In-the-Wild Shape Retrieval
from a Single Image [58.953160501596805]
本稿では,2次元画像と3次元CADモデルの結合埋め込み空間をパッチワイズで構築する手法を提案する。
我々のアプローチは、CADが正確に一致しない実世界のシナリオにおける最先端技術よりも堅牢である。
論文 参考訳(メタデータ) (2021-08-20T20:58:52Z) - Reconstructing Interactive 3D Scenes by Panoptic Mapping and CAD Model
Alignments [81.38641691636847]
エンボディエージェントの観点から,シーン再構築の問題を再考する。
rgb-dデータストリームを用いてインタラクティブシーンを再構築する。
この再構成されたシーンは、密集したパノプティカルマップのオブジェクトメッシュを、部分ベースのCADモデルに置き換える。
論文 参考訳(メタデータ) (2021-03-30T05:56:58Z) - Vid2CAD: CAD Model Alignment using Multi-View Constraints from Videos [48.69114433364771]
複数のオブジェクトを含む複雑なシーンの映像シーケンスにCADモデルを整列させる作業に対処する。
提案手法では,任意のビデオの処理が可能で,各オブジェクトに対する9つのDoFポーズを自動的に復元し,共通3次元座標フレームに整列させる。
論文 参考訳(メタデータ) (2020-12-08T18:57:45Z) - Mask2CAD: 3D Shape Prediction by Learning to Segment and Retrieve [54.054575408582565]
本稿では,既存の3次元モデルの大規模データセットを活用し,画像中の物体の3次元構造を理解することを提案する。
本稿では,実世界の画像と検出対象を共同で検出するMask2CADについて,最も類似したCADモデルとそのポーズを最適化する。
これにより、画像内のオブジェクトのクリーンで軽量な表現が生成される。
論文 参考訳(メタデータ) (2020-07-26T00:08:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。