論文の概要: GRIHA: Synthesizing 2-Dimensional Building Layouts from Images Captured
using a Smart Phone
- arxiv url: http://arxiv.org/abs/2103.08297v1
- Date: Mon, 15 Mar 2021 11:48:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 20:45:27.274183
- Title: GRIHA: Synthesizing 2-Dimensional Building Layouts from Images Captured
using a Smart Phone
- Title(参考訳): GRIHA: スマートフォンで撮影した画像から2次元の建物レイアウトを合成する
- Authors: Shreya Goyal, Naimul Khan, Chiranjoy Chattopadhyay, Gaurav Bhatnagar
- Abstract要約: 屋内シーンを再構築し、3Dまたは2Dのレイアウト/フロアプランを生成することは、広く知られている問題です。
本稿では,簡単な携帯電話カメラを用いたRGB画像を用いたレイアウト生成フレームワークGRIHAを提案する。
我々はGRIHAを既存の手法と比較し,優れた結果を得た。
- 参考スコア(独自算出の注目度): 2.905751301655124
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reconstructing an indoor scene and generating a layout/floor plan in 3D or 2D
is a widely known problem. Quite a few algorithms have been proposed in the
literature recently. However, most existing methods either use RGB-D images,
thus requiring a depth camera, or depending on panoramic photos, assuming that
there is little to no occlusion in the rooms. In this work, we proposed GRIHA
(Generating Room Interior of a House using ARCore), a framework for generating
a layout using an RGB image captured using a simple mobile phone camera. We
take advantage of Simultaneous Localization and Mapping (SLAM) to assess the 3D
transformations required for layout generation. SLAM technology is built-in in
recent mobile libraries such as ARCore by Google. Hence, the proposed method is
fast and efficient. It gives the user freedom to generate layout by merely
taking a few conventional photos, rather than relying on specialized depth
hardware or occlusion-free panoramic images. We have compared GRIHA with other
existing methods and obtained superior results. Also, the system is tested on
multiple hardware platforms to test the dependency and efficiency.
- Abstract(参考訳): 屋内シーンを再構築し、3Dまたは2Dのレイアウト/フロアプランを生成することは、広く知られている問題です。
最近の文献では、かなり多くのアルゴリズムが提案されている。
しかし、ほとんどの既存の方法は、RGB-D画像を使用するため、深度カメラを必要とするか、またはパノラマ写真に依存し、室内に閉塞がほとんどないことを前提としています。
本研究では,シンプルな携帯電話カメラを用いたRGB画像を用いたレイアウト生成フレームワークであるGRIHA(Generating Room Insideor of a House using ARCore)を提案する。
レイアウト生成に必要な3次元変換を評価するために,同時ローカライゼーションとマッピング(slam)を利用する。
SLAM技術は、GoogleのARCoreのような最近のモバイルライブラリに組み込まれている。
したがって,提案手法は迅速かつ効率的である。
これは、特殊な深度ハードウェアや閉塞のないパノラマ画像に頼るのではなく、従来の写真を数枚撮影するだけでレイアウトを生成する自由を与えます。
我々はGRIHAを既存の手法と比較し,優れた結果を得た。
また、システムは複数のハードウェアプラットフォーム上でテストされ、依存関係と効率をテストする。
関連論文リスト
- DRAGON: Drone and Ground Gaussian Splatting for 3D Building Reconstruction [6.204957247203803]
DRAGONは、ドローンと地上の建築画像を入力として取り出し、3D NVSモデルを作成することができる。
Google Earth Studioを使って,9つの大きな建物シーンの半合成データセットを作成した。
論文 参考訳(メタデータ) (2024-07-01T19:52:32Z) - Lightplane: Highly-Scalable Components for Neural 3D Fields [54.59244949629677]
Lightplane RenderとSplatterは2D-3Dマッピングにおけるメモリ使用量を大幅に削減した。
これらのイノベーションは、メモリと計算コストの少ない、はるかに高解像度で高解像度の画像の処理を可能にする。
論文 参考訳(メタデータ) (2024-04-30T17:59:51Z) - Creating Seamless 3D Maps Using Radiance Fields [0.0]
ナビゲーション,仮想観光,都市計画などの応用のために,2次元入力画像から3次元オブジェクトモデルと3次元マップを作成することが望ましい。
従来の方法では反射面と特異反射が困難である。
Google Road Viewは実際の3Dオブジェクトモデルを作成するのではなく、ビューの集合である。
論文 参考訳(メタデータ) (2024-03-17T22:49:07Z) - Splatter Image: Ultra-Fast Single-View 3D Reconstruction [67.96212093828179]
Splatter ImageはGaussian Splattingをベースにしており、複数の画像から3Dシーンを高速かつ高品質に再現することができる。
テスト時に38FPSでフィードフォワードで再構成を行うニューラルネットワークを学習する。
いくつかの総合、実、マルチカテゴリ、大規模ベンチマークデータセットにおいて、トレーニング中にPSNR、LPIPS、その他のメトリクスでより良い結果を得る。
論文 参考訳(メタデータ) (2023-12-20T16:14:58Z) - PERF: Panoramic Neural Radiance Field from a Single Panorama [109.31072618058043]
PERFはパノラマ性神経放射場を1つのパノラマから訓練する新しいビュー合成フレームワークである。
本研究では,360度2Dシーンを3Dシーンに持ち上げるために,新しい共同RGBDインペイント法とプログレッシブ・インペイント・アンド・エラスティング法を提案する。
PERFは,パノラマから3D,テキストから3D,3Dシーンのスタイリングなど,現実世界のアプリケーションに広く利用することができる。
論文 参考訳(メタデータ) (2023-10-25T17:59:01Z) - Anyview: Generalizable Indoor 3D Object Detection with Variable Frames [63.51422844333147]
我々は,AnyViewという新しい3D検出フレームワークを実用化するために提案する。
本手法は, 単純かつクリーンなアーキテクチャを用いて, 高い一般化性と高い検出精度を実現する。
論文 参考訳(メタデータ) (2023-10-09T02:15:45Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - Fast and Lightweight Scene Regressor for Camera Relocalization [1.6708069984516967]
プレビルドされた3Dモデルに対して直接カメラのポーズを推定することは、いくつかのアプリケーションにとって違法にコストがかかる可能性がある。
本研究では,シーン座標のマッピングに多層パーセプトロンネットワークのみを必要とする簡易なシーン回帰手法を提案する。
提案手法では,高密度のRGB画像ではなく,スパースディスクリプタを用いてシーン座標を回帰する。
論文 参考訳(メタデータ) (2022-12-04T14:41:20Z) - 3D-Aware Indoor Scene Synthesis with Depth Priors [62.82867334012399]
既存の手法では、室内配置や内部の物体の多様さのため、屋内シーンのモデル化に失敗する。
室内のシーンは共通な内在構造を持たず、2次元画像のみを用いるだけでは3次元形状のモデルが適切にガイドできない。
論文 参考訳(メタデータ) (2022-02-17T09:54:29Z) - RGB-D Odometry and SLAM [20.02647320786556]
RGB-Dセンサーは低コストで低消費電力で、LiDARのような従来のレンジセンサーの代替品である。
RGBカメラとは異なり、RGB-Dセンサーは3Dシーン再構成のためのフレーム単位の三角測量の必要性を取り除く追加の深度情報を提供する。
本章は3つの主要な部分から構成される: 第一部では、オドメトリーとSLAMの基本概念を紹介し、RGB-Dセンサーの使用を動機づける。
第2部では、カメラポーズトラッキング、シーンマッピング、ループクローズという、SLAMシステムの主要な3つのコンポーネントについて詳述する。
論文 参考訳(メタデータ) (2020-01-19T17:56:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。