論文の概要: Walk2Map: Extracting Floor Plans from Indoor Walk Trajectories
- arxiv url: http://arxiv.org/abs/2103.00262v1
- Date: Sat, 27 Feb 2021 16:29:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 17:32:39.645735
- Title: Walk2Map: Extracting Floor Plans from Indoor Walk Trajectories
- Title(参考訳): ウォーク2マップ:屋内歩行軌道からフロアプランを抽出する
- Authors: Claudio Mura, Renato Pajarola, Konrad Schindler, Niloy Mitra
- Abstract要約: 室内を歩く人の軌跡からフロアプランを生成するデータ駆動型アプローチであるWalk2Mapを紹介します。
データ駆動慣性オドメトリーの進歩により、そのような最小限の入力データは、コンシューマレベルのスマートフォンのIMU読み取りから得ることができる。
スキャンした3d屋内モデルを用いてネットワークをトレーニングし、屋内歩行軌跡にカスケードな方法で適用する。
- 参考スコア(独自算出の注目度): 23.314557741879664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have seen a proliferation of new digital products for the
efficient management of indoor spaces, with important applications like
emergency management, virtual property showcasing and interior design. These
products rely on accurate 3D models of the environments considered, including
information on both architectural and non-permanent elements. These models must
be created from measured data such as RGB-D images or 3D point clouds, whose
capture and consolidation involves lengthy data workflows. This strongly limits
the rate at which 3D models can be produced, preventing the adoption of many
digital services for indoor space management. We provide an alternative to such
data-intensive procedures by presenting Walk2Map, a data-driven approach to
generate floor plans only from trajectories of a person walking inside the
rooms. Thanks to recent advances in data-driven inertial odometry, such
minimalistic input data can be acquired from the IMU readings of consumer-level
smartphones, which allows for an effortless and scalable mapping of real-world
indoor spaces. Our work is based on learning the latent relation between an
indoor walk trajectory and the information represented in a floor plan:
interior space footprint, portals, and furniture. We distinguish between
recovering area-related (interior footprint, furniture) and wall-related
(doors) information and use two different neural architectures for the two
tasks: an image-based Encoder-Decoder and a Graph Convolutional Network,
respectively. We train our networks using scanned 3D indoor models and apply
them in a cascaded fashion on an indoor walk trajectory at inference time. We
perform a qualitative and quantitative evaluation using both simulated and
measured, real-world trajectories, and compare against a baseline method for
image-to-image translation. The experiments confirm the feasibility of our
approach.
- Abstract(参考訳): 近年、室内空間の効率的な管理のための新しいデジタル製品が急増し、緊急管理、仮想プロパティーショーケース、インテリアデザインなどの重要な応用が行われている。
これらの製品は、アーキテクチャ要素と非永続要素の両方に関する情報を含む、考慮された環境の正確な3Dモデルに依存します。
これらのモデルは、RGB-D画像や3Dポイントクラウドなどの測定データから作成されなければならない。
これにより、3Dモデルの作成速度が大幅に制限され、屋内空間管理のための多くのデジタルサービスの採用が妨げられます。
部屋の中を歩く人の軌跡からのみフロアプランを生成するデータ駆動アプローチであるwalk2mapを提案することで,このようなデータ集約的な手順の代替案を提供する。
データ駆動慣性オドメトリーの最近の進歩により、そのような最小限の入力データは、コンシューマレベルのスマートフォンのIMU読影データから得ることができ、現実世界の屋内空間の無力でスケーラブルなマッピングを可能にする。
本研究は,室内歩行軌跡とフロアプランで表される情報(空間空間のフットプリント,ポータル,家具)との関係を学習することに基づく。
画像ベースのEncoder-DecoderとGraph Convolutional Networkの2つのタスクに対して,エリア関連(内部フットプリント,家具)と壁関連(室内)情報をそれぞれ分離し,それぞれ異なるニューラルネットワークを使用する。
我々は,スキャンした3次元屋内モデルを用いてネットワークをトレーニングし,推論時に室内歩行軌跡にカスケード方式で適用する。
シミュレーションと実世界の軌跡を用いて定性的かつ定量的な評価を行い,画像間翻訳のベースライン法と比較した。
実験は我々のアプローチの実現性を確認する。
関連論文リスト
- Syn-to-Real Unsupervised Domain Adaptation for Indoor 3D Object Detection [50.448520056844885]
室内3次元物体検出における非教師なし領域適応のための新しいフレームワークを提案する。
合成データセット3D-FRONTから実世界のデータセットScanNetV2とSUN RGB-Dへの適応結果は、ソースオンリーベースラインよりも9.7%、9.1%のmAP25が顕著に改善されていることを示している。
論文 参考訳(メタデータ) (2024-06-17T08:18:41Z) - Indoor and Outdoor 3D Scene Graph Generation via Language-Enabled Spatial Ontologies [16.396336068724484]
本稿では,任意の屋内環境と屋外環境に3次元シーングラフを構築する手法を提案する。
屋外環境を記述する概念の階層構造は、屋内よりも複雑である。
トレーニングデータの欠如は、屋内環境で使用される学習ベースのツールの直接的な適用を妨げる。
論文 参考訳(メタデータ) (2023-12-18T21:20:28Z) - AutoDecoding Latent 3D Diffusion Models [95.7279510847827]
本稿では,3次元オートデコーダをコアとした静的・明瞭な3次元アセットの生成に対して,新しいアプローチを提案する。
3D Autodecoderフレームワークは、ターゲットデータセットから学んだプロパティを潜時空間に埋め込む。
次に、適切な中間体積潜在空間を特定し、ロバストな正規化と非正規化演算を導入する。
論文 参考訳(メタデータ) (2023-07-07T17:59:14Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - Disentangling Variational Autoencoders [0.0]
変分オートエンコーダ(VAE)は、高次元データの入力セットを低次元の潜在空間に投影する。
文献から3つの異なるVAEモデルを実装し、6万枚の手書き数字のデータセットでそれらをトレーニングする。
本稿では,復号化画像の品質と遅延空間の歪みレベルとのトレードオフについて検討する。
論文 参考訳(メタデータ) (2022-11-14T19:22:41Z) - Embodied Navigation at the Art Gallery [43.52107532692226]
私たちは、ユニークな特徴を持つ新しい3D空間を構築、リリースしています。
既存の3Dシーンと比較すると、収集された空間は増幅され、視覚的特徴に富み、非常に少ない占有情報を提供する。
この新しいスペース内で、PointGoalナビゲーションのための新しいベンチマークを提供します。
論文 参考訳(メタデータ) (2022-04-19T18:00:06Z) - Simple and Effective Synthesis of Indoor 3D Scenes [78.95697556834536]
1枚以上の画像から3D屋内シーンを没入する問題について検討する。
我々の狙いは、新しい視点から高解像度の画像とビデオを作成することである。
本稿では,不完全点雲の再投影から高解像度のRGB-D画像へ直接マップするイメージ・ツー・イメージのGANを提案する。
論文 参考訳(メタデータ) (2022-04-06T17:54:46Z) - SimIPU: Simple 2D Image and 3D Point Cloud Unsupervised Pre-Training for
Spatial-Aware Visual Representations [85.38562724999898]
我々はSimIPUと呼ばれる2Dイメージと3Dポイントクラウドの教師なし事前学習戦略を提案する。
具体的には、モーダル内空間認識モジュールとモーダル間特徴相互作用モジュールからなるマルチモーダルコントラスト学習フレームワークを開発する。
我々の知る限りでは、屋外マルチモーダルデータセットに対する対照的な学習事前学習戦略を探求する最初の研究である。
論文 参考訳(メタデータ) (2021-12-09T03:27:00Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。